A cél az, hogy mindenki értsen minden videót, és így még több időt töltsön a képernyő elé ragadva, értékes bevételt termelve ezzel a globális techcégnek.
Az eszközt a Meta Connect 2024 színpadán mutatta e Mark Zuckerberg. Az új, mesterséges intelligenciával működő funkció lehetővé teszi, hogy a különböző nyelveken rögzített Facebook- és Instagram-reeleket a saját nyelvünkre fordítva nézhessük.
A Meta szerint az MI-fordítóeszköz automatikusan lefordítja a reelek hanganyagát, tehát nem feliratozásról van szó, hanem a hangsáv teljes cseréjéről. Az eszköz automatikus szinkronizálást használ, ami mindenre kiterjed, a beszélő saját hangszínén szólal majd meg, és a szájmozgást is igazítják az adott nyelvhez.
Sőt, a nyelvi modell fordítómodulja a Meta új okosszemüveg-prototípusában (Orion) is működött, a klasszikus Ray Ban-hangulatot idéző kütyüvel azonnal képes fordítani élő beszélgetések során.
Jelenleg a fejlesztők kisebb csoportokon tesztelik a működést az Instagramon és a Facebookon, latin-amerikai és USA-beli alkotó videóinak angolra, illetve spanyolra fordításával. A közeljövőben tervezik kiterjeszteni a funkciót több tartalomgyártóra és nyelvre is. Ha a technika jól működik, akkor már csak idő kérdése, hogy valamilyen hatékonysággal, de magyarul is tudjon, ahogy írásban már a ChatGTP és a Claude nyelvi modellek is elboldogulnak.
Az automatikus tartalomfordítással és a természetesnek tűnő szinkronizálással és ajakszinkronnal elképzelhető egy olyan jövő, ahol tényleg elhárulnak a nyelvi korlátok, a kínai tűznyelő ugyanúgy magyarul fog megszólalni, mint a kutyaként ugató, utcán őrjöngő amerikai “sztár”, IShowSpeed.
Ezzel a TikTok platformjával szemben is lépéselőnyre tehet szert a Meta, amivel hatalmas piac nyílna meg a különféle nyelveken beszélő tartalomgyártók előtt, akik így a kínai óriással szemben talán inkább az Instagramra, és Facebookra gyártanának első körben friss videókat.