सैन फ्रांसिस्को:फेसबुक ने ओपन सोर्स बहुभाषी मशीन अनुवाद (एमएमटी) मॉडल की शुरुआत की, जो अंग्रेजी डेटा पर निर्भर हुए बिना 100 भाषाओं के पेयर में से किसी का अनुवाद कर सकता है.अनुवाद डेटा बनाने के लिए नावल माइनिंग रणनीतियों का उपयोग करते हुए, फेसबुक ने 100 भाषाओं में 7.5 बिलियन वाक्यों के साथ पहला कई डेटा सेट बनाया है.यह चीनी से सीधे फ्रांसीसी डेटा पर बेहतर अर्थ को संरक्षित करने के लिए प्रशिक्षित करता है.
- इसे एम 2 एम -100 कहा जाता है, यह कुल 2,200 भाषा निर्देशों पर प्रशिक्षित किया जाता है. या यह कहे कि पिछले वाले अंग्रेजी-केंद्रित बहुभाषी मॉडल से 10 गुना अधिक अच्छा है. फेसबुक द्वारा पेश किया, पहला बहुभाषी मशीन अनुवाद मॉडल, एम 2 एम -100
- फेसबुक एआई ने एक बयान में कहा कि एम 2 एम -100 को तैयार करने से अरबों लोगों के लिए अनुवाद की गुणवत्ता में सुधार होगा, खासकर जो कम संसाधन वाली भाषा बोलते हैं.
- अनुवाद करते समय चीनी से फ्रेंच में अधिकांश अंग्रेजी-केंद्रित बहुभाषी मॉडल चीनी से अंग्रेजी और अंग्रेजी से फ्रेंच पर प्रशिक्षण देते हैं क्योंकि अंग्रेजी प्रशिक्षण डेटा सबसे व्यापक रूप से उपलब्ध है.
- नया फेसबुक मशीन लर्निंग मॉडल अर्थ को बेहतर ढंग से संरक्षित करने के लिए सीधे चीनी फ्रांसीसी डेटा पर प्रशिक्षण देता है.
- यह मशीन अनुवादों के मूल्यांकन के लिए व्यापक रूप से उपयोग किए जाने वाले BLEU मैट्रिक पर 10 अंकों के अंग्रेजी-केंद्रित सिस्टम को बेहतर बनाता है.
सोशल नेटवर्क ने घोषणा की कि हम मॉडल, प्रशिक्षण और मूल्यांकन भी जारी कर रहे हैं, जो अन्य शोधकर्ताओं ने बहुभाषी मॉडल को पुन: पेश करने और आगे बढ़ने में मदद करने के लिए स्थापित किया है.
कंपनी ने कहा कि हमने 15 अरब मापदंडों के साथ एक सार्वभौमिक मॉडल बनाने के लिए कई स्केलिंग तकनीकों का उपयोग किया, जो संबंधित भाषाओं से जानकारी प्राप्त करता है और भाषाओं और आकारिकी की अधिक विविध स्क्रिप्ट को दर्शाता है.
बहुभाषी अनुवाद में एक चुनौती यह है कि एक विलक्षण मॉडल को कई अलग-अलग भाषाओं और विविध लिपियों में जानकारी हासिल करना आना चाहिए.