Megdöbbentő, mennyire nem értik a híreket az MI-asszisztensek

Close-up Of A Robotic Hand Using Calculator

Az MI-asszisztensek az esetek 45%-ában félreértelmezik a hírtartalmakat – nyelvtől, területtől és platformtól függetlenül – derül ki az Európai Műsorsugárzók Szövetsége (EBU) által koordinált és a BBC vezetésével végzett nemzetközi kutatásból. A 2025 júniusa és júliusa között végzett vizsgálat az eddigi legnagyobb ilyen jellegű kutatás volt, 18 ország 22 közszolgálati médiavállalata vett részt benne, több mint 3000 válaszon keresztül tesztelve a ChatGPT, Copilot, Gemini és Perplexity rendszereket.

Az MI-asszisztensek (ChatGPT, Copilot, Gemini, Perplexity) válaszai 45%-ban tartalmaztak jelentős problémát / hibát, függetlenül a nyelvtől, területtől és platformtól. A leggyakoribb hiba a forrásmegjelölés és hivatkozás (31%), ezt követik a jelentős ténybeli hibák (20%). A Google Gemini rendszer teljesített a leggyengébben (76% hibás válasz) – írja a kutatást összegző beszámolójában az MLE.

Az MI-asszisztensek hibái (téves forrásmegjelölés, ténybeli pontatlanság) közvetlenül érinthetik a médiavállalatok hitelességét, mivel a felhasználók mind az MI-fejlesztőket, mind a hírgyártókat felelősnek tekintik a hibákért. Ez különösen problémás, ha egy MI-rendszer hamisan tulajdonítja a tévedést egy kiadónak, vagy téves idézeteket használ.

A tanulmány szerint az úgynevezett „válasz-először” AI élmények, mint a Perplexity vagy a Google AI Overviews, jelentős forgalmat vonnak el a kiadóktól, mivel kevesebb felhasználó kattint át a forrásoldalra.

A jelentés kiemeli, hogy a kiadóknak nagyobb kontrollra van szükségük afelett, hogy az MI-asszisztensek hogyan és milyen feltételekkel használhatják fel a tartalmaikat. Az engedély nélküli felhasználás továbbra is elterjedt.

Javasolt megoldások

Az MI-fejlesztőknek javítaniuk kell az asszisztensek pontosságát és forráshasználatát, illetve transzparensen publikálniuk kell az eredményeket nyelvenként és piaconként. Szükség van a hírforrások egyértelmű, látható és egységes attribúciójára, visszamutató linkekkel az eredeti tartalomra.

Iparági egyeztetések vagy szabályozói beavatkozás lehet szükséges a hírforrások kiemelése és az MI-minőség javítása érdekében. A kiadók számára ajánlott megismerni és alkalmazni az EBU-BBC által publikált „News Integrity in AI Assistants Toolkit”-et, amely konkrét ajánlásokat, ellenőrző listát és hibakatalógust tartalmaz, segítve a minőségi AI-válaszok fejlesztését és a tartalomvédelmet.

A jelentés hangsúlyozza, hogy a technológiai cégeknek formális párbeszédet kell kezdeményezniük a hírkiadókkal, hogy közösen dolgozzanak ki a biztonságot, pontosságot és átláthatóságot garantáló iparági standardokat.