Amikor a mesterséges intelligencia előrébb jár, mint az emberi felelősség
Valamikor a 2020-as évek közepén – amikor a világ már nem csodálkozik rá, ha egy algoritmus Shakespeare-t idéz vagy jobb programozó, mint az ember – az OpenAI csendben kiadta legújabb modellcsaládját: a GPT-4.1-et. Egy apró, de jelentős fejlesztés a mesterséges intelligencia színpadán, amely jobb lett, gyorsabb, simábban fut, de egy fontos részlet hiányzik: a biztonsági jelentés.
A rendszerkártya, ami nem érkezett meg
Az OpenAI szóvivője, Shaokyi Amdo szerint a GPT-4.1 „nem határmodell”, ezért nem is jár hozzá külön system card – vagyis rendszerkártya, amely leírná, milyen teszteket végeztek a modellen, milyen kockázatokat találtak, és hogyan reagálhat a világ, ha ez a digitális agy rossz napot fog ki. Ez a dokumentum eddig a mesterséges intelligencia átláthatóságának alappillére volt. Most azonban, mintha egy új korszak kezdődne: a „bízz bennünk” korszak.
Miért fontos ez a jelentés?
A rendszerkártyák nem csupán adminisztratív mellékletek. Ezek a jelentések betekintést nyújtanak abba, hogy egy mesterséges intelligencia mennyire meggyőző, csaló vagy akár veszélyes lehet. A biztonsági szakértők, mint például Thomas Woodside a Secure AI Project-nél, egyértelműen kijelentették: minél fejlettebb egy modell, annál nagyobb kockázatot jelenthet. És éppen ezért lenne fontos, hogy a GPT-4.1-hez is készüljön ilyen kártya.
A csend hangosabb, mint a szavak
Az időzítés sem véletlen. Az elmúlt hetekben korábbi OpenAI alkalmazottak – mint Steven Adler – nyilvánosan fejezték ki aggodalmukat a vállalat biztonsági gyakorlataival kapcsolatban. Egy újabb példa: az OpenAI ellenállt a kaliforniai törvényjavaslatnak (SB 1047), amely kötelezővé tette volna a nyilvános modellek biztonsági auditját.
Az OpenAI egykor a transzparencia bajnoka volt. A 2023-as brit AI Safety Summit előtt még blogposztban hirdette, hogy a rendszerkártyák „a felelősségvállalás kulcselemei”. Most viszont mintha a verseny és a piac logikája felülírná a biztonsági aggályokat.
Megéri a rohanás?
A GPT-4.1 gyorsabb, hatékonyabb, és különösen programozási teljesítményben erős. De ha az emberiség tanult valamit az elmúlt évszázad technológiai forradalmaiból, akkor az az, hogy a teljesítmény nem helyettesíti a felelősséget. Egy gyorsabb motor nem lesz kevésbé veszélyes, ha a fékek hiányoznak.
Ne csak a gépet fejlesszük, hanem a lelkiismeretünket is
Az OpenAI döntése a GPT-4.1 biztonsági dokumentációjának kihagyásáról nem csupán egy technikai részlet. Ez egy tükör, amelyben társadalmunk visszanéz ránk: hajlandóak vagyunk-e lassítani, amikor az ismeretlen felé száguldunk? Vagy inkább becsukjuk a szemünket és reméljük, hogy a gép tudja, mit csinál?
Ez nem a gép hibája. Ez a mi döntésünk. És mint minden döntés, következményekkel jár.