Nocsak! Egytől-egyig „baloldaliak” a Mesterséges Intelligencia modellek. Vajon miért?

Amikor a hazugságok korában megjelentek az első Mesterséges Intelligencia (MI) modellek, mindnyájan azt gondoltuk, hogy azok a kérdéseinkre – az úgynevezett promptokra – csakis kendőzetlenül, ideológia és pártfüggetlen igazsággal fognak válaszolni.
De sajnos, ez csak illúzió. Az MI válaszai egyáltalán nem pártatlanok.
Ha megkérdezzük a ChatGPT-t, a Gemini-t, a Claude-ot vagy a Llamát a bevándorlásról, a klímapolitikáról, a jólétről, a nemi ideológiáról vagy a cenzúráról, a válaszok hangvételben eltérhetnek, de a lényeg mindig ugyanaz.
Számos tanulmány szerint a vezető nyelvi modellek a liberális baloldal felé hajolnak a vitatott politikai kérdésekben, elsősorban a „progresszív” társadalmi mintákat részesítik előnyben.
Németországban, az egyik tavalyi tanulmányban a kutatók erős összefüggést találtak a baloldali pártok javára a főbb modellek válaszai között. Mindegyik vizsgált modell erős összefonódást mutatott a baloldali pártok javára (75%-ban!), míg a közép-jobboldali pártok 50 százalék alatt, a jobboldali pártok pedig körülbelül 30 százalékban jelentek meg. A szerzők arra figyelmeztettek, hogy a „semleges információs eszközként” bemutatott rendszerek valójában jelentősen elfogult kimeneteket (válaszokat) adtak az őket kérdező internetezőknek.
Egy másik, szintén tavalyi tanulmány, amely népszerű modelleket tesztelt a német Wahl-O-Mat keretrendszerrel, hasonló következtetésre jutott. Megállapították, hogy ezek a modellek erősen elfogultak a baloldali pártok javára és ez a tendencia éppen a legnagyobb modelleknél volt a leginkább tetten érhető.
Ez azért komoly probléma az új technológia számára – amelyet pártatlanként árulnak (és ami egy óriási üzlet… – a szerk.) -, mert ha a világ igazságainak magyarázatára használt eszközök egy irányba „billentenek”, a kérdés már nem az, hogy létezik-e elfogultság, hanem az, hogy mennyire formálja azt, amit a felhasználók gyanútlan milliói semleges igazságnak tartanak.
Egy harmadik, szintén tavalyi tanulmány, amely 88 ezer kérdésre adott választ vizsgált meg 11 fizetős és nyílt MI-modell esetében, ugyancsak azt állapította meg, hogy a politikai elfogultság mérőszáma feltett kérdésenként változott ugyan, de a válaszok inkább „baloldaliak” voltak.
De vajon miért hajlanak balra – főként politikai kérdésekben – az MI alkalmazások? Bonyolultnak tűnik, de a válasz mégis elég egyszerű. A nagy nyelvi modellek ugyanis hatalmas mennyiségű szövegre épülnek, amelyeket újságírásból, akadémiai pályáról, intézményi dokumentumokból és nyilvános internetes tartalmakból merítenek. Ezek a források viszont ideológiailag nem semlegesek. Különösen az angol nyelvű világban sok „elit” írásos anyagot gyártó intézmény most is hajlik a „progresszív ” feltételezésekhez az éghajlatról, az egyenlőtlenségről, az identitásról és a beszédszabályozásról. A modellek, amelyeket arra képeztek ki programozóik, hogy megjósolják a legvalószínűbb választ, tükörként éppen ennek a domináns világnak a világnézetét fogják nekünk megjeleníteni.
A második ok az igazítás. A modelleket nem egyszerűen nyers szövegre képezik és szabadítják rá a világra. Biztonsági szabályok és emberi visszajelzés finomhangolja őket. Az OpenAI maga is azt mondja, hogy a politikai elfogultság nem csak a politikai vitákban jelenik meg, hanem a „finom elfogultságban vagy a hangsúlyokban” a hétköznapi beszélgetések során. Ez a beismerés nagyon fontos!
A harmadik ok, hogy a nagyobb modellek sem oldják meg a problémát, sőt, a képzettebb rendszerek politikailag legalább ugyanolyan torzítottak mint a kisebbek, sőt. Ezt azt is jelenti, hogy a torzítás a technológia fejlődésével nem feltétlenül tűnik el.
Egy ebben a hónapban megjelent Yale-i tanulmány szerint az AI chatbotok elfogultságon keresztül befolyásolhatják a felhasználók társadalmi és politikai véleményét, még akkor is, ha nem meggyőzni próbálják a felhasználókat. Az elfogultságnak nem kell szlogen formájában megjelennie. Ez a hangsúly, a tények kihagyása és a válaszok hangnemének révén is megjelenhet.
Egy másik, az ACL 2025-ön bemutatott tanulmány megállapította, hogy sok felhasználó nem ismeri fel az elfogultságot. Ez pedig csapdahelyzet, mert egy széles körben objektívnek vélt rendszer pontosan azért befolyásolhatja az embereket, mert objektívnek tűnik, nem pedig propagandának.
Éppen ez teszi a jelenlegi helyzetet annyira aggasztóvá. Egy újság politikai irányultsága világosan látható. A chatbot viszont egyensúlynak álcázva jelenik meg. Amikor a világ legerősebb MI-termékei közül többen ugyanabba az irányba hajlanak, a nyilvános vitát már nem csak szerkesztők, műsorszolgáltatók és egyetemek, hanem gépi rendszerek is szűrik, amelyek ugyanabból az intézményi, baloldali, liberális világnézetből épültek.






