GPT-4.1: A gép okosabb lett, de hol marad a lelkiismeretjelentés?

Absztrakt ábrázolás egy mesterséges intelligenciára emlékeztető hálózatról, amelyet kérdések és figyelmeztető jelek vesznek körül

Amikor a mesterséges intelligencia előrébb jár, mint az emberi felelősség

Valamikor a 2020-as évek közepén – amikor a világ már nem csodálkozik rá, ha egy algoritmus Shakespeare-t idéz vagy jobb programozó, mint az ember – az OpenAI csendben kiadta legújabb modellcsaládját: a GPT-4.1-et. Egy apró, de jelentős fejlesztés a mesterséges intelligencia színpadán, amely jobb lett, gyorsabb, simábban fut, de egy fontos részlet hiányzik: a biztonsági jelentés.

A rendszerkártya, ami nem érkezett meg

Az OpenAI szóvivője, Shaokyi Amdo szerint a GPT-4.1 „nem határmodell”, ezért nem is jár hozzá külön system card – vagyis rendszerkártya, amely leírná, milyen teszteket végeztek a modellen, milyen kockázatokat találtak, és hogyan reagálhat a világ, ha ez a digitális agy rossz napot fog ki. Ez a dokumentum eddig a mesterséges intelligencia átláthatóságának alappillére volt. Most azonban, mintha egy új korszak kezdődne: a „bízz bennünk” korszak.

Miért fontos ez a jelentés?

A rendszerkártyák nem csupán adminisztratív mellékletek. Ezek a jelentések betekintést nyújtanak abba, hogy egy mesterséges intelligencia mennyire meggyőző, csaló vagy akár veszélyes lehet. A biztonsági szakértők, mint például Thomas Woodside a Secure AI Project-nél, egyértelműen kijelentették: minél fejlettebb egy modell, annál nagyobb kockázatot jelenthet. És éppen ezért lenne fontos, hogy a GPT-4.1-hez is készüljön ilyen kártya.

A csend hangosabb, mint a szavak

Az időzítés sem véletlen. Az elmúlt hetekben korábbi OpenAI alkalmazottak – mint Steven Adler – nyilvánosan fejezték ki aggodalmukat a vállalat biztonsági gyakorlataival kapcsolatban. Egy újabb példa: az OpenAI ellenállt a kaliforniai törvényjavaslatnak (SB 1047), amely kötelezővé tette volna a nyilvános modellek biztonsági auditját.

Az OpenAI egykor a transzparencia bajnoka volt. A 2023-as brit AI Safety Summit előtt még blogposztban hirdette, hogy a rendszerkártyák „a felelősségvállalás kulcselemei”. Most viszont mintha a verseny és a piac logikája felülírná a biztonsági aggályokat.

Megéri a rohanás?

A GPT-4.1 gyorsabb, hatékonyabb, és különösen programozási teljesítményben erős. De ha az emberiség tanult valamit az elmúlt évszázad technológiai forradalmaiból, akkor az az, hogy a teljesítmény nem helyettesíti a felelősséget. Egy gyorsabb motor nem lesz kevésbé veszélyes, ha a fékek hiányoznak.

Ne csak a gépet fejlesszük, hanem a lelkiismeretünket is

Az OpenAI döntése a GPT-4.1 biztonsági dokumentációjának kihagyásáról nem csupán egy technikai részlet. Ez egy tükör, amelyben társadalmunk visszanéz ránk: hajlandóak vagyunk-e lassítani, amikor az ismeretlen felé száguldunk? Vagy inkább becsukjuk a szemünket és reméljük, hogy a gép tudja, mit csinál?

Ez nem a gép hibája. Ez a mi döntésünk. És mint minden döntés, következményekkel jár.