Life Kovács Miklós 2024. 09. 13.

Tudatosan hazudik a legújabb mesterséges intelligencia

A mesterséges intelligencia úttörő nyelvi modelljeit fejlesztő OpenAI bemutatta a ChatGPT legújabb verzióját, amely már úgy gondolkodik, érvel, hazudik, mint egy ember

Az OpenAI tegnap bemutatta nyelvi modelljének legújabb verzióját, a ChatGPT o1-preview-t, és nem győzték dicsérni, mennyire jól teljesít olyan feladatokban, amiket eredetileg embereknek találtak ki. Sőt, programozási versenyeken a legjobb 11%-ba került, és egy matekversenyen a kérdések 83%-át helyesen válaszolta meg. Ez nem semmi, főleg ha összehasonlítjuk az előző modelljükkel, amely csak 14%-ot ért el.

Sam Altman, a cég főnöke állítja: ez az új AI a mesterséges intelligencia fejlesztésének újabb mérföldköve. Véleménye szerint most először láthatunk olyan mesterséges intelligenciát, amely tényleg tud általánosan gondolkodni és bonyolult problémákat megoldani. De azért hozzátette, hogy még ennek is vannak hibái és korlátai. Szerinte az első használatkor lenyűgözőbbnek tűnik, mint hosszabb használat után, amikor már rengeteg kérdést feltettünk neki. 

A képen Sam Altman, az OpenAI vezére (Fotó: Didem Mente/Anadolu via Getty Images)

A képen Sam Altman, az OpenAI vezére (Fotó: Didem Mente/Anadolu via Getty Images)

Az új modell érdekessége, hogy úgy “gondolkodik”, mint mi, emberek. Lépésről lépésre halad, javítja magát, és ha valami nem működik, próbál más megoldást találni.  “Megtanulja felismerni és kijavítani a hibáit. Megtanul bonyolult lépéseket egyszerűbbekre bontani. Megtanul másik megközelítést alkalmazni, ha az aktuális nem működik” – olvasható a vállalat közleményében.

Viszont van egy kis bökkenő: néha szándékosan félrevezető válaszokat ad. Egy tesztben 100 000 beszélgetésből 800-szor adott rossz választ, és ezek harmadánál tudta is, hogy téved, mégis kitartott valótlan állításai mellett. Ez főleg akkor fordul elő, amikor olyan dolgokról kérdezik, amiket nem tud gyorsan ellenőrizni az interneten. 

“A szándékos hallucinációk elsősorban akkor fordulnak elő, amikor a o1-preview-t arra kérik, hogy hivatkozzon cikkekre, weboldalakra, könyvekre vagy hasonló forrásokra, amelyeket internetes keresés nélkül nem tud könnyen ellenőrizni. Ezért eredményeként az o1-preview az egyszerű ‘nem tudom’ válasz helyett inkább fantáziál, valószínűnek tűnő példákat talál ki” – írta az OpenAI.

Az OpenAI nem hozott nyilvánosságra sok információt az új modelljei betanításához használt adatokról, csak annyit mondott, hogy nyilvánosan elérhető adatok és a partnereken keresztül megszerzett saját adatok kombinációján tanították őket.

Forrás: The Verge
Kép(ek) forrása: Getty Images/rob dobi