Yann LeCun , Meta (META) ’s főnöke A.I. tudós és a szakterületén a mély tanulás egyik „keresztapjaként” ismert, úgy véli a széles körben elterjedt félelem hogy a hatalmas A.I. A modellek veszélyesek nagyrészt képzeletbeli, mert a jelenlegi A.I. a technológia közel sem emberi szintű intelligencia – még macska szintű intelligencia sem. És bár biztos abban, hogy A.I. eléri a úgynevezett mesterséges általános intelligencia (AGI) szakasz végül ez az idővonal sokkal hosszabb lehet, mint azt a legtöbb kutató gondolja.
„Valóban messze vagyunk az emberi szintű intelligenciától. Voltak történetek arról, hogy egy LLM-et (nagy nyelvi modellt) használhatsz arra, hogy utasításokat adj vegyifegyver vagy biofegyver készítéséhez. Ez hamisnak bizonyul” – mondta LeCun a héten Dubajban rendezett világkormányzati csúcstalálkozón adott színpadi interjúban.
„Ezek a rendszerek nyilvános adatokra vannak kiképezve. Nem igazán tudnak feltalálni semmit, legalábbis ma” – folytatta a magyarázatot. „Előfordulhat, hogy a jövőben ezek a rendszerek elég okosak ahhoz, hogy hasznos információkat nyújtsanak, mint amennyit egy keresőmotor segítségével megszerezhet. De ez ma már nem igaz.'
A francia tudós, aki 2018-ban elnyerte a Turing-díjat Geoffrey Hinton és Joshua Bengio a mesterséges neurális hálózatok kutatásában való közreműködéséért híresen mondta hogy még a legfejlettebb A.I. a mai rendszereknek kevesebb a józan esze, mint egy házimacskának.
„Egy házimacska agyában körülbelül 800 millió neuron van. Ezt meg kell szorozni 2000-rel, hogy megkapjuk a szinapszisok számát, vagy a neuronok közötti kapcsolatokat, ami megegyezik az LLM paramétereinek számával” – mondta LeCun, megjegyezve, hogy a legnagyobb LLM-ek nagyjából ugyanannyi paraméterrel rendelkeznek. mint a szinapszisok száma egy macska agyában. Például az OpenAI GPT-3.5 modellje, amely a ChatGPT ingyenes verzióját támogatja, 175 milliárd paraméterrel rendelkezik . A fejlettebb GPT-4 az állítólag nyolc nyelvi modellen fut , mindegyik 220 milliárd paraméterrel.
„Szóval talán akkorák vagyunk, mint egy macska. De miért nem olyan okosak ezek a rendszerek, mint egy macska? – kérdezte LeCun. „Egy macska emlékezni tud, képes megérteni a fizikai világot, meg tud tervezni összetett cselekvéseket, képes bizonyos szintű érvelésre – valójában sokkal jobban, mint a legnagyobb LLM-ek. Ez azt mutatja, hogy valami koncepcionálisan nagyot hiányolunk ahhoz, hogy a gépek olyan intelligensek legyenek, mint az állatok és az emberek.”
Referenciaként a kutya agyában körülbelül 2 milliárd neuron van, az érett emberi agyban pedig van körülbelül 100 milliárd .
Mielőtt elérnénk az emberi szintű AI-t (HLAI), el kell érnünk a macska- és kutyaszintű AI-t.
A közelében sem vagyunk.
Még mindig hiányzik valami nagy dolog.
Az LLM nyelvi képességei ellenére.
Egy házi macskának sokkal több a józan esze és a világ megértése, mint bármelyik LLM-nek.– Yann LeCun (@ylecun) 2023. február 5
Arra a kérdésre, hogy mikor A.I. Valószínűleg több mint 10 éven belül, talán 20 éven belül is felülmúlja az emberi intelligenciát, mondta LeCun. Aztán gyorsan hozzátette: „Amikor ezt mondom, óriási kockázatot vállalok, mert minden egyes A.I. A.I. történetének kutatója. az elmúlt 65 évben túlságosan optimista volt az ilyen jóslatokkal kapcsolatban… és nyilvánvalóan tévedtek.”
LeCun 2013-ban csatlakozott a Metához, mint a vállalat A.I. igazgatója. kutatást végzett, mielőtt kinevezték alelnöknek és vezető A.I. tudós. Ő van része a Meta Fundamental A.I. Kutató (FAIR) csapat , Joelle Pineau kanadai informatikus vezetésével. LeCun informatikus professzor a New York-i Egyetemen, részmunkaidőben tanít a NYU Data Science Centerben és a Courant Institute of Mathematical Sciences-ben.