Meredith Whittaker, a Signal elnöke az Euronews Nextnek beszélt a mesterséges intelligencia európai szabályozásáról, a magánélet védelméről és a mentális egészségről az (AI) új korszakában – írja az Euronews.
Meredith Whittaker, a titkosított Signal üzenetküldő alkalmazást működtető Signal Foundation nonprofit alapítvány elnöke a mesterséges intelligencia (AI) egyik korai gondolkodója, aki 2006-ban a Google számára a technológiával foglalkozó kutatócsoportot vezetett. A Google-nál munkabeszüntetést szervezett a szexuális zaklatáshoz való hozzáállása miatt, és 2019-ben ki is kényszerült a cégtől.
Ezután társalapítója volt az AI Now Institute-nak, és tanácsadója volt az amerikai Szövetségi Kereskedelmi Bizottságnak, és még mindig aggódik a Big Tech miatt, és amiatt, hogy az AI új korszakában hogyan ellenőrzik az adatainkat.
Az Euronews Nextnek az idei lisszaboni webes csúcstalálkozón beszélt az európai mesterséges intelligenciáról és a szabályozásról. A teljes cikk itt olvasható.
Euronews Next: Sokat beszélt a mesterséges intelligenciával kapcsolatos félelmeiről és a mostani mesterséges intelligencia hype-ról. Mi az, ami miatt konkrétan aggódik?
Meredith Whittaker: Azt hiszem, a félelmeim kevésbé magával a technológiával kapcsolatosak, sokkal inkább azzal a ténnyel, hogy azt egy maroknyi nagyvállalat fejleszti és irányítja, amelynek érdeke természetesen a vállalat érdeke, a profit, a növekedés és a részvényesek öröme, nem feltétlenül a társadalmi jó. És hogy az általuk eladott, licencelt, létrehozott és alkalmazott mesterséges intelligencia hatalmas mennyiségű adatot és számítási teljesítményt igényel, és ténylegesen megerősíti és kiterjeszti a megfigyelési üzleti modellt, amely a középpontjában áll számos olyan kárnak, amely miatt a világ nagy része aggódik, amikor a felelősségre nem vonható technológiáról van szó.
Azt hiszem, a félelmeim és aggodalmaim inkább az AI-t alakító emberekkel, intézményekkel és ösztönzőkkel kapcsolatosak, mint magával a technológiával, vagy azzal az elképzeléssel, hogy az valahogyan érző vagy istenszerűvé válhat.
Beszéljünk a mesterséges intelligencia irányításáról és szabályozásáról. Elég messzire megy a szabályozás? Konkrétabban, miközben Európa a saját AI-felhatalmazását készíti elő, hogyan áll Európa?
Az [európai] mesterséges intelligenciáról szóló törvény még nem teljes. Még nem tudjuk, hogy milyen lesz a végső formája. Azt hiszem, egy pillanatra fel kell függesztenünk az ítélkezést. Úgy gondolom, hogy Európa már most is sok mindent megtett, amit fel lehetne használni a mesterséges intelligenciával kapcsolatos egyes ártalmak erőteljes megfékezésére.
Az egyik példa, amit felhoznék, az a tény, hogy a GDPR-t szigorúan értelmezik és betartatják. A szigorúság könnyen felhasználható a megfigyelési reklámok betiltására, és a megfigyelési reklámok betiltása hatalmas és meglehetősen radikális szerkezetátalakító hatással lenne az ezeket a vállalatokat mozgató ösztönzőkre.
Ez azt jelentené, hogy hirtelen nem lenne többé megengedett az a hatalmas adatmennyiség, amelyet a hirdetőknek eladott demográfiai profilok létrehozására, mikrocélzásra, különböző típusú emberek megcélzására használtak.
És ez természetesen hatással lenne a mesterséges intelligenciára, mivel az az adatforrás, amelyet a közösségi médiában közzétettünk, a helymeghatározási adataink, a közösségi gráfunk, mindezek hirtelen sokkal kevésbé lennének hasznosak.
Szigorúan értelmezve pedig talán megengedhetetlen lenne, hogy ezek a központosított vállalatok gyűjtsék és fenntartsák. Ez csak egy példa arra, hogy Európa már most is állást foglal ebben a kérdésben. A kérdés valójában a politikai akarat.
Merüljünk el a politikai akaratban, úgy érzi, hogy az Egyesült Államokban talán inkább az az elképzelés él, hogy legyünk inkább nagyvállalati jellegűek, termeljünk több profitot?
Hát persze. Ezeknek a vállalatoknak a nagy része az USA-ban székel. Ez az ő joghatóságuk, és az USA tisztában van ezzel. Ezek a vállalatok az amerikai kormány partnerei.
Gyakran infrastruktúrát biztosítanak a kormány számára. Az Egyesült Államokban pedig egy nagyon zűrös politikai helyzetben vagyunk, ahol már 20 vagy 30 éve – attól függően, hogy ki hol számolja -, hogy nincs szövetségi adatvédelmi törvényünk.
Az egyik dolog, ami reményt ad nekem, az az, hogy nagyon nehéz ezeket a nagyszabású, globális méretű rendszereket minden egyes joghatóságra szabottan felépíteni.
Az Európából vagy más nagy piacról érkező erőteljes szabályozás tehát formáló hatással van ezekre a vállalatokra, még akkor is, ha az nem abból a joghatóságból származik, ahol a székhelyük van.
Mekkora veszélyt jelentenek majd az adatokat gyűjtő mesterséges intelligencia „izzasztóüzemek”?
Azt hiszem, itt a kérdés valójában a munkaügyi kérdés. Nemrégiben egy becslés szerint 100 millió embert foglalkoztatnak nagyon bizonytalan munkakörökben, akik gyakorlatilag az emberi intelligenciát biztosítják, amit az AI és az AI-vállalatok a magukénak vallanak.
Ez tehát az adatok címkézése. Ez az adatok kurálása, ez a kalibrálás. Megmondani a rendszernek, hogy mi az elfogadható és mi az elfogadhatatlan. Ez a tartalom moderálása; ez a hibakontroll és azoknak a problémáknak a kezelése, amelyeket ezek a mesterséges intelligenciával működő rendszerek okoznak, amikor szabálytalanul viselkednek. Ez rengeteg embert jelent.
És úgy gondolom, hogy a munka minőségével kapcsolatban valódi problémák merülnek fel. Valódi problémák vannak azzal kapcsolatban, hogy ez a munka mennyire károsítja az emberek mentális egészségét. Ez nem vitás.
Az a munka, hogy többször iszonyatos képeket vagy szövegeket látunk, vagy szembesülünk velük, dokumentáltan és egyértelműen káros hatással van az emberek mentális egészségére. Vannak tanúvallomásaink olyan emberektől, akik elvesztették a munkájukat, elvesztették kapcsolataikat, és elvesztették a képességüket, hogy a világban legyenek, mert ez mennyire felkavaró volt.
És azt hiszem, van egy nagyobb kérdés, amitől el kell vonatkoztatnunk, hogy ha ezek a rendszerek ilyen mértékű kárt okoznak, ami megtörténik, akkor nincs más mód arra, hogy ezek a rendszerek működőképesek legyenek, és elfogadhatóvá váljanak az üzleti és a lakossági használatban.
Megfelel ez nekünk?
Úgy gondolja, hogy a magánélet a jelentősebb áldozatok között lesz, ha egyre több ember használ generatív AI-szoftvereket, például a Chat GPT-t?
Az adatvédelem már régóta áldozatul esett a technológiai üzleti modellnek. A Signal továbbra is valóban privát menedéket fog nyújtani a mohó adatgyűjtés elől, amely az iparág többi részét meghatározza.
De az biztos, hogy ez a verseny a nagyobb a jobb. A mesterséges intelligencia hatalmas adatvédelmi kockázatot jelent. Egyre intimebb, egyre átjárhatóbb, egyre invazívabb adatok létrehozását és gyűjtését teszi szükségessé rólunk és közösségeinkről.
És ez az adatok további központosítását segíti elő egy maroknyi vállalat kezében, amely ismét egy felelősségre nem vonható hatalom. Nagyon nehéz analógot találni a történelemben.
3 thoughts on “„Az én aggodalmaim inkább az emberekkel és az intézményekkel, mint a technológiával kapcsolatosak”: Whittaker a mesterséges intelligenciáról”
Comments are closed.