Mozilla leállítja az AI-eredetű szövegeket felismerő bővítményét – de vajon miért?

Segítséget kaptál? Szívesen töltöd itt az idődet? Visszajársz hozzánk? Támogasd a munkákat: Ko-fi és Paypal!

Ajánló:

A Mozilla, amely egykor az internet nyitottságának bajnokaként vált ismertté, most sorra szünteti meg saját mesterséges intelligenciával (AI) kapcsolatos kezdeményezéseit – köztük a Fakespot Deep Fake Detector nevű bővítményt is. A döntés kérdéseket vet fel: vajon a felhasználók érdeke számít még, vagy a cég inkább a nagy AI-vállalatok igényeinek akar megfelelni?

Véget ér egy ígéretes AI-eszköz pályafutása

A Mozilla 2025. június 26-án végleg leállítja a Fakespot Deep Fake Detector nevű böngészőbővítményét, amelynek célja az volt, hogy felismerje, vajon egy adott online szöveget ember írta-e, vagy mesterséges intelligencia (angolul: artificial intelligence, rövidítve AI) generálta.

Az eszköz nyílt forráskódú modellekre épült, például az ApolloDFT, Binocular, UAR és ZipPy rendszerekre, így átláthatóbb és hozzáférhetőbb alternatívát nyújtott a drága, zárt kereskedelmi megoldásokkal szemben. Bár nem volt tökéletes, a Deep Fake Detector mégis egy lépéssel közelebb hozta a felhasználókat a digitális tartalmak eredetének megértéséhez.

Nem csak a Firefox-bővítmény tűnik el

A bővítmény megszűnéséről először Soeren Hentzschel számolt be. Az add-on mellett azonban a webes verzió, valamint a Google Chrome és Safari böngészőkhöz készült kiegészítők is leállnak. Az aktív felhasználók száma egyébként is alacsony volt, körülbelül 3300 fő.

A döntés ugyan nem kavart nagy felháborodást, mégis szimbolikus jelentőségű, hiszen jól illeszkedik a Mozilla jelenlegi stratégiájába: a saját AI-kezdeményezések leállítása mellett harmadik felek AI-megoldásainak integrálása válik egyre gyakoribbá.

Felhasználóbarát AI helyett üzleti érdek?

A Mozilla a közelmúltban több fontos AI-projektjét is megszüntette, például a Fakespot értékeléselemzőt és az Orbit nevű adatvédelmet előtérbe helyező AI-asszisztenst. Ez utóbbi például egy nyílt nyelvi modellt (LLM, azaz large language model) használt, amely az adatokat a Mozilla saját szerverein dolgozta fel, nem egy külső vállalatnál. Használatához nem kellett regisztrálni vagy személyes adatokat megadni, így a felhasználó adatbiztonságát maximálisan tiszteletben tartotta.

Ezzel szemben most a Firefox egy olyan új, harmadik féltől származó chatbot integrációját vezeti be, amely – bár még nem az alapértelmezett beállítás része – sokak szerint zavaró és tolakodó. Egyes felhasználók például arra panaszkodnak, hogy ha egyszer bekapcsolják a ChatGPT támogatást, minden szövegkijelölés után automatikusan megjelenik egy AI-ablak, ezzel megszakítva a böngészési élményt.

Vajon kiért van ez a „fordulat az AI felé”?

A Mozilla narratívája szerint az AI integrációja „a Firefox jövőjének biztosítását” szolgálja. Mégis, a cég azokat az AI-kezdeményezéseit szünteti meg, amelyek átláthatóak, etikusak és valóban a felhasználók érdekeit szolgálták. Az új stratégia inkább azt a gyanút erősíti, hogy a Mozilla a nagy AI-vállalatok kiszolgálása felé fordul, abban bízva, hogy azok fizetnek majd a technológiájuk Firefoxba való integrálásáért.

A cikk szerzője, Joey Sneddon cinikusan így fogalmaz: „A Mozilla nem azért fordul az AI felé, hogy a felhasználókat szolgálja ki, hanem hogy AI-cégeket szolgáljon ki.”

Az AI már nem kiegészítő – hanem uralkodó elem?

A mesterséges intelligencia már ma is jelen van mindenütt: szövegösszefoglalók, képgenerálók, oktatási segédeszközök formájában. Ennek ellenére kérdéses, hogy vajon tényleg szükség van-e ezeknek a funkcióknak a mély integrációjára a böngészőbe, amikor ezekhez külön bővítményként is könnyedén hozzáférhetünk.

A szerző szerint ezzel a stratégiával a Mozilla végső soron nem segíti az AI átlátható használatát, hanem inkább annak kritikátlan elfogadását és terjedését támogatja. Ez pedig éppen az ellenkezője annak, amit a nyílt internet és a digitális szabadság hívei a Mozilla nevéhez kapcsolnak.

Szómagyarázat:

  • Add-on: böngészőbővítmény vagy kiegészítő, amely új funkciókat ad a webböngészőhöz.
  • Deep Fake Detector: olyan eszköz, amely képes felismerni, hogy egy tartalom mesterséges intelligencia által generált-e.
  • Open source (nyílt forráskódú): olyan szoftver, amelynek forráskódja bárki számára elérhető, módosítható és szabadon terjeszthető. További információ
  • Large Language Model (LLM): hatalmas nyelvi adathalmazon tanított mesterséges intelligencia, amely képes természetes nyelvű szöveg értelmezésére és generálására. További információ
  • Chatbot: olyan AI-rendszer, amely képes beszélgetni emberekkel szöveges vagy hangalapú formában.

Miért fontos tudni, ha egy cikket mesterséges intelligencia írt?
És milyen veszélyeket rejt, ha nem vesszük ezt észre

A mesterséges intelligencia (MI) egyre gyakrabban jelenik meg a tartalomgyártásban: hírek, blogcikkek, véleményírások és közösségi média posztok készülnek részben vagy teljesen algoritmusok által. Ez számos előnnyel járhat, de fontos tudnunk, mikor olvasunk MI által generált szöveget – mert ez nemcsak az információ hitelességét, hanem a társadalmi tájékozódásunkat is befolyásolhatja.

Miért hasznos, ha felismerjük az MI által írt tartalmat?

  • Átláthatóság és tisztesség: Tudnunk kell, hogy egy vélemény vagy állítás mögött valódi emberi gondolat vagy csak adat-alapú generálás áll-e. Ez különösen fontos hírek vagy politikai tartalmak esetén.
  • Kritikai olvasás: Ha tudjuk, hogy MI írta a szöveget, óvatosabban viszonyulunk hozzá, és nem fogadjuk el automatikusan igaznak a benne szereplő állításokat.
  • Forrásértékelés: Az MI gyakran nem hivatkozik megfelelően forrásokra, vagy pontatlan információkat tartalmazhat. Felismerve ezt, jobban tudjuk mérlegelni a tartalom súlyát.
  • Szakmai és etikai kérdések: Például egy orvosi tanácsadás vagy jogi útmutató esetében kulcsfontosságú, hogy tudjuk, valódi szakértő vagy gépi szövegalkotó áll-e a háttérben

Milyen veszélyeket rejt az MI által generált tartalom?

  • Félrevezetés és manipuláció: Az MI képes hihető, de hamis információkat előállítani, amivel könnyen lehet politikai, gazdasági vagy társadalmi nézeteket torzítani.
  • Fakenews (álhír) terjesztés: Az MI segítségével tömegesen és gyorsan lehet hamis cikkeket gyártani, akár emberek megtévesztésére vagy lejáratására.
  • Tartalomtorzulás: Mivel az MI algoritmusok statisztikai alapon dolgoznak, kiválaszthatják a "népszerűbb", de nem feltétlenül pontos nézőpontokat, ezzel torzítva a valóságot.
  • Emberi munka háttérbe szorulása: Az újságírás, szakértői elemzés vagy véleményformálás hitelessége csökkenhet, ha nem világos, hogy MI vagy ember írta a szöveget

Összegzés

Az MI által generált tartalmak felismerése a digitális tudatosság fontos része. Nem az a cél, hogy elutasítsuk az ilyen szövegeket, hanem hogy körültekintően kezeljük őket. Az átláthatóság, a hiteles források és az információkritika ma fontosabbak, mint valaha – különösen egy olyan világban, ahol a valóság és az MI által formált látszat könnyen összemosódhat.