Jensen Huang: AI-hallucinaties zijn oplosbaar en kunstmatige algemene intelligentie is 5 jaar weg

Via: Bohdan Kaminskyi | 20.03.2024, 21:39

NVIDIA

Tijdens de jaarlijkse GTC-conferentie gaf NVIDIA CEO Jensen Huang commentaar op actuele kwesties over Artificial General Intelligence (AGI) en het probleem van hallucinaties in AI-reacties.

Dit is wat we weten

Volgens Huang zou het bereiken van een acceptabel niveau van AGI, dat op menselijk niveau kan presteren of beter kan presteren dan mensen in een breed scala aan taken, binnen de komende 5 jaar kunnen gebeuren. Het specifieke tijdsbestek hangt echter af van hoe we de criteria voor AGI definiëren.

-"Als we AGI specificeren als iets heel specifieks, een set tests waarbij een softwareprogramma het heel goed kan doen - of misschien wel 8% beter dan de meeste mensen - dan denk ik dat we er binnen 5 jaar zullen zijn", legde Huang uit.

Hij noemde wetsexamens, logicatoetsen, economische testen of medische toelatingsexamens als zulke testen.

Wat betreft het probleem van hallucinaties, of de neiging van AI om valse maar plausibele antwoorden te produceren, gelooft Huang dat het oplosbaar is. Hij stelde voor om van systemen te eisen dat ze antwoorden van geloofwaardige bronnen onderzoeken en bevestigen voordat ze een resultaat geven.

- Huang zei:"Voeg een regel toe: Voor elk antwoord moet je het antwoord opzoeken".

Hij zei dat het proces vergelijkbaar zou kunnen zijn met fact-checking in de journalistiek: feiten uit bronnen vergelijken met bekende waarheden en als het antwoord gedeeltelijk onnauwkeurig is, de hele bron weggooien.

Bron: TechCrunch