Hogy megértsük, miért nehéz etikusan működő MI-rendszereket tervezni például a Google-nél, azt kell meglátnunk, hogy napjaink techgigászainak a kezében micsoda hatalom összpontosul. Mielőtt 1911-ben a bírósági ítélet eredményeként szétbontották volna, a Standard Oil lefedte az Egyesült Államok olajiparának kilencven százalékát. Jelenleg a Google a keresőmotor-piac körülbelül kilencvenkét százalékát fedi le – világszerte. Emellett több mint kétmilliárdan facebookoznak, és nagyjából másfél milliárd embernek van iPhone-ja.
A történelem során soha egyetlen birodalom nem ért el ennyi embert egyszerre.
Ezek a vállalatok két évtized alatt úgy nőttek ekkorára, hogy felfoghatatlan mennyiségű adatot gyűjtöttek a felhasználóikról. A Facebook, a Google és a hozzájuk hasonló óriások ezen információk birtokában pontosan targetált hirdetéseket és kifinomult ajánlóalgoritmusokat állítanak elő. Így töltik fel az emberek feedjeit, hogy lehetőleg soha véget nem érően görgessünk a kijelzőnkön. A vállalatoknak elemi érdekük, hogy függőségi viszonyba kerüljünk a platformjaikkal – így termelnek több bevételt a hirdetésekből.
Intelligens együttműködés: kockázatok és lehetőségek
Az AI-t érintő aktualitások kerülnek a 24 Extra támogatásával futó BookLab Üzleti Könyvklub április 29-ei eseményének fókuszába. Négy terület: a harcászat, az orvosi robotika, a média és a szervezetfejlesztés szakértői beszélgetnek majd a BMC Könyvtárában.
Szeretettel várunk a programon, ahol a közös gondolkodásé a főszerep, és ahová a 24 Extra Csúcs előfizetői jelentős kedvezménnyel válthatnak jegyet.
Nincsenek történelmi példáink arról, mi történik, amikor egy vállalat ekkorára nő. A Google, az Amazon és a Microsoft jelenlegi piaci értéke előzmény nélküli. Több milliárd felhasználó privát adatai, identitása, véleménye alig néhány mamutvállalat kezébe kerültek, amelyeket néhány, elképzelhetetlenül gazdag ember igazgat. Nem csoda, hogy a techóriásoknál dolgozók számára hiábavalónak tűnik megkongatni a vészharangot. Egy Timnit Gebru nevű MI-tudós azonban mégis tett egy próbát.
Sztereotip adatokon alapuló MI-rendszerek
Egy 2015-ös techkonferencián Gebru körbenézett és azt érzékelte: teljesen kilóg a tömegből. Harmincas évei elején járó, fekete nő volt, és korántsem olyan neveltetésben részesült, mint a körülötte lévők. Villamosmérnökként dolgozó eritreai édesapja meghalt, kamaszként pedig Gebrunak maga mögött kellett hagynia Etiópia háborús vidékét. Massachusettsi középiskolájában rossz szemmel nézték a tanárai, hogy bevándorló létére komoly ambíciókat dédelget. Mégis bejutott a Stanfordi Egyetem villamosmérnöki karára, és végül rátalált a mesterséges intelligencia és a számítógépes látástechnológia területére.
Ez utóbbi olyan szoftvereket takar, amelyek képesek „látni” és kielemezni a való világot. A technológia rendkívül ígéretesnek tűnt, de Gebru észrevett bizonyos intő jeleket. Az MI-rendszerek már akkor egyre nagyobb szerephez jutottak az emberek életében: volt, akinek a hitelképességéről döntöttek, volt, akinek a jelzálogigényét bírálták el, vagy az arcképét jelölték meg a rendőrség számára.
Bár első ránézésre úgy tűnhet, ezek a rendszerek értéksemlegesen végzik a munkájukat, gyakran nem így történik. Ha a betanításukhoz felhasznált adatokban előítéletek tükröződtek, akkor ezek az előítéletek a rendszert is meghatározták. Az MI-t javarészt olyanok fejlesztették, akik nem tapasztalták meg saját bőrükön a rasszizmust, és részben emiatt történhetett meg, hogy a modellek betanításához felhasznált adatok gyakran nem reprezentálták hitelesen a nőket és a kisebbségi csoportokhoz tartozókat.
Az MI már most komoly károkat okoz
Amikor Sam Altman 2015-ben bejelentette az OpenAI indulását, Gebru dühös nyílt levelet írt arról, micsoda pazarlás, hogy egocentrikus milliárdosok istenszerű MI fejlesztésébe öntik a pénzüket.
„Itt van egy fehér techmogul, aki Dél-Afrikában született és nevelkedett, az apartheid idején, és egy rakás fehér férfiból álló befektetői és kutatói csapat, amely próbálja megakadályozni, hogy az MI »átvegye az uralmat a világ felett”, és mindössze annyi potenciális problémát látunk ebben, hogy »mindegyik kutató a mélytanulás módszerére épít”? A Google nemrég előállt egy számítógépes látástechnológiás algoritmussal, amely a fekete embereket emberszabású majmokként kategorizálta. Egyesek azzal próbálják elkenni ezt a tévedést, hogy az algoritmus biztosan a színt vette alapvető megkülönböztető jegynek az emberek kategorizálásánál. Ha lett volna csak egyetlen fekete a csapatban, vagy bárki, aki elgondolkodik a bőrszín kérdésén, nem került volna a világ elé egy fekete embereket emberszabású majmokként kategorizáló termék. (…) Képzeljünk csak el egy algoritmust, amely a fehéreket rendszeresen nem emberekként kategorizálja. Egyetlen amerikai vállalat sem tartana nyilvános használatra késznek egy ilyen személyazonosítási rendszert.”
Gebru végül a levelet megtartotta magának (csak néhány évvel később publikálta), de nem tudott szabadulni a kérdéstől, hogy a Szilícium-völgy legnagyobb hatalmú szereplői miért csak az MI jövőjével kapcsolatos veszélyektől rettegnek, ha egyszer a mesterséges intelligencia már most valós károkat okoz sokak számára.
Két válasz is volt. Az első szerint az MI-fejlesztő cégek vezetőségéből szinte senki nem tapasztalta meg a faji vagy nemi diszkriminációt. A második: paradox módon vállalati érdekük fűződött ahhoz, hogy hangosan káráljanak a mindenható szuperintelligencia veszélyeiről.
Elsőre talán nem érthető, miért éri meg figyelmeztetni a vásárlókat az általunk eladni kívánt technológia kockázataira, pedig zseniális marketinghúzás. Az embereket jobban érdekli az itt és most, mint a hosszú távú jövőjük. Ha hirtelen úgy tűnik, hogy az MI egy nap végezni fog velünk, akkor sokan csak arra tudnak gondolni, hogy már ma is micsoda csodákra lehet képes.
A Nagy Elterelő Hadművelet
A fenti stratégia elterelte a figyelmet a vállalatok számára égető, megoldásra váró problémákról, amelyek miatt lassítaniuk kellett a fejlesztés ütemét, és korlátozniuk MI-modelljeik képességeit.
Nem ez volt az első alkalom, hogy nagyvállalatok elterelték a közönség figyelmét. A hetvenes évek elején az olajvállalatok támogatását élvező műanyagipar kezdte el népszerűsíteni az újrahasznosítás gondolatát, mondván, hogy ez megoldhatja a műanyagszennyezés problémáját.
Az újrahasznosítással természetesen semmi probléma nincs. A gyakorlat népszerűsítésével azonban az ipar széles körben elhintette azt az elképzelést, hogy a műanyag nem jelent gondot, amíg megfelelően újrahasznosítják – vagyis áttolták a felelősséget a gyártókról a fogyasztókra. A műanyaggyártók pontosan tudták, hogy a nagy léptékű újrahasznosítás drága, és nem elég hatékony.
A kampányok abból a szempontból azonban sikeresek voltak, hogy elterelték a közönség figyelmét a műanyaggyártás felpörgéséről és környezetszennyező hatásáról. Az újrahasznosítás a közbeszéd része lett, az viszont háttérbe szorult, hogyan kellene kordában tartani a műanyaggyártó vállalatok tevékenységét.
Ahogy az óriási olajvállalatoknak is sikerült elterelniük az emberek figyelmét környezetkárosító hatásukról, az MI-fejlesztés élvonalbeli képviselői is kihasználhatták a leendő Terminator-forgatókönyv körüli hisztériát, hogy ne kelljen a gépi tanulásos algoritmusok aktuálisan káros hatásairól nyilatkozniuk. Lekerült tehát a felelősség terhe a fejlesztőkről, hogy most azonnal tegyenek valamit az ügy érdekében. Megfoghatatlan problémának tűnt az egész, amivel később is ráérnek foglalkozni.
Pedig lehetne tenni ellene
Gebru nemcsak a vészharangot kongatta, hanem megoldási javaslatokkal is előállt.
Az egyik úgy hangzott, hogy az MI-rendszerek létrehozói szigorúbb szabályok szerint tanítsák be a modelljeiket. Gebru a Microsoftnál való elhelyezkedése után összeírt egy szabálykönyvet, amelynek értelmében a programozóknak az MI-modell betanításakor mindig létre kell hozniuk egy adatlapot, feltüntetve rajta minden részletet a létrehozásával, tartalmával, felhasználásával, korlátaival és morális problémaival kapcsolatban. Ha egy MI-modellen előítéletes működés jeleit észlelik, könnyebb lesz kideríteniük, miért van így.
Sokan nem is gondolnánk, milyen nehéz rájönni, miért követnek el hibákat az MI-rendszerek. Az Amazonnál 2018-ban rádöbbentek, hogy egy belsős használatú MI-szoftver, amellyel az állásra jelentkezők anyagait fésülték át, következetesen több férfi jelöltet javasolt, mint nőit. Azért alakult így, mert a program tervezői a megelőző tíz év során beérkezett önéletrajzokból származó adatokkal tanították be, ezeket pedig többségében férfiak küldték. A modell így azt tanulta meg, hogy inkább a férfi jelentkezőket részesítse előnyben. Az Amazon azonban nem javította meg a szoftvert, egyszerűen csak nem használták tovább.
A Google ugyancsak félmegoldást választott, amikor a Fényképek nevű szoftvere egyes fekete egyéneket „gorillákként” kategorizált. A kínos hiba eredetileg azért merült fel, mert a Google a modell betanítása során nem használt elegendő fényképet fekete és sötét bőrű emberekről, és nem is tesztelte alaposan az alkalmazottakon. A vállalat vezetősége azonban nem gondolta úgy, hogy képesek megjavítani a modellt, ezért inkább egyszerűen nem használták tovább.
Egyes MI-kutatók szerint túlságosan nehéz kiküszöbölni az előítéletes működés problémáit, mert korunk mesterségesintelligencia-modelljei olyan fejlettek, hogy adott esetben még a fejlesztőik sem értik, miért hoznak bizonyos döntéseket. A mélytanulás módszerén alapuló modellek, amilyenek a neurális hálók, több millió vagy milliárd paraméterből vagy „súlyból” épülnek fel, amelyek az egyes rétegek között zajló komplex matematikai műveletek finomhangolását végzik. A neurális háló rétegeire gondolhatunk úgy, mintha egy üzem gyártósorai lennének, ahol minden munkásnak megvan a maga feladata, a sor végén pedig összeáll a kocsi. Így működnek a neurális hálók rétegei: mindegyik finomhangolást végez az adatokon.
A nehézséget az jelenti, hogy sok apró változtatás történik a folyamatban, így utólag nehéz visszakövetni, a gyártósor melyik állomása, azaz a neurális háló melyik rétege hogyan járult hozzá a munkához. Vagyis hol dőlt el, hogy egy fekete vádlottat úgy címkéznek fel, miszerint nagy valószínűséggel újra bűncselekményt követ el.
Az adat nem minden
Miután a Google a gorillás botránnyal bekerült a hírekbe, egy Margaret Mitchell nevű informatikus csatlakozott a vállalathoz, hogy segítsen elkerülni a hasonló hibákat. Egy alkalommal képek leírására betanított neurális hálóval végzett kísérleteket, és egy angliai gyárrobbanásról készült fotókat is felhasznált. Az egyik fénykép egy közeli, magasan lévő lakásból készült. Füstfelhő látszott rajta, az előtérben pedig egy tévés híradó stábja. Mitchell nem akart hinni a szemének, amikor az MI-rendszer úgy jellemezte a látványt, hogy „szuper”, „szép” és „szemet gyönyörködtető”.
„A rendszer a klasszikus »minden szupi, szuper” problémától szenvedett – mondta Mitchell, utalva A Lego-kaland című film híres dalára a kockavilágról, ahol az élet összes gondját-baját a szőnyeg alá söprik. – Nem volt fogalma sem a halandóságról, sem arról, hogy a halál rossz dolog.”
Az MI azt tanulta meg a betanítása során használt képekből, hogy a naplementék szépek, és hogy magasról mindig szép a kilátás. Mitchellnek ekkor esett le, hogy az adat minden. A betanításhoz használt hiányos adatokkal különféle kognitív torzításokat kódolt a rendszerbe, amely ennek köszönhetően nem tartotta tragédiának az emberi élet elvesztését.
A mesterséges intelligencia modern látnokai, az amerikai Sam Altman és a brit Demis Hassabis egykor az emberiség javát szolgáló technológiáról álmodtak. Aztán, amikor újabb és újabb forrásokra lett szükségük, techóriások segítségét kérték. A megváltás ígéretéből hatalmi játszma, a jövőnk feletti háború kerekedett – amelynek indulásáról Parmy Olson Világuralom című kötete alapján ebben a cikkben írtunk.
The post „Minden szupi, szuper” – Hogyan javíthatnák ki a techóriások az MI torz valóságát? first appeared on 24.hu.
Tovább az erdeti cikkre:: 24.hu





