Az őszi félév során azt az izgalmas feladatot kaptam, hogy egy beadandó keretein belül járjak utána az AI fejlődésével kapcsolatosan felmerülő biztonsági kérdéseknek mind egyéni, mind társadalmi szinten. Ebben a bejegyzésben a dolgozat egy rövidebb változatát szeretném megosztani: öt fő szempont – adatvédelem, kiberbiztonság, munkaerőpiaci egyenlőtlenségek, jogi és etikai kihívások, militarizáció – mentén vizsgáljuk az MI fejlődésével összefüggő biztonsági kockázatoknak.
A mesterséges intelligencia (röviden MI, vagy „artificial intelligence”, AI) az emberi gondolkodás és problémamegoldás mintáinak gépi szimulációját jelenti, lehetővé téve a gépek számára, hogy „tanuljanak” és komplex feladatokat végezzenek. Az AI mint tudományos terület az 1950-es években jelent meg, szoros kapcsolatban Alan Turing munkásságával, aki a Turing-teszttel meghatározta az intelligencia mércéjét. Turing, a modern számítástechnika egyik atyja, az Enigma-kód feltörésében játszott szerepe révén vált híressé, és alapvető kérdéseket fogalmazott meg azzal kapcsolatban, hogy a gépek képesek-e gondolkodni. A mesterséges intelligencia „hivatalos” meghatározása, valamint ennek önálló, tudományos szakterületként való elismerése az 1956-os dartmouth-i konferencia során történt meg először. Az eseményen az AI-t olyan gépi rendszerekként definiálták, amelyek képesek tanulni és érvelni. Ez a találkozó megalapozta az AI-kutatás irányvonalait, elindította a terület intézményes fejlődését. Az első AI-rendszerek elsősorban szabályalapúak voltak, de korlátozott képességeik miatt az 1980-as évektől a gépi tanulás vette át a főszerepet. A gépi tanulás olyan módszerek gyűjteménye, amelyek lehetővé teszik a gépek számára, hogy adatokból tanuljanak és mintákat ismerjenek fel anélkül, hogy minden döntési szabályt előre definiálnánk számukra. A neurális hálózat ennek egy speciális eszköze, amely az agy működését utánzó, egymással összekapcsolt „neuronokból” áll, és képes összetettebb adatminta-felismerésre is. A gépi tanulás és a neurális hálózat között az a különbség, hogy míg az előbbi tágabb fogalomként bármilyen algoritmust magában foglalhat, amely adatok alapján tanul, addig az utóbbi egy konkrét modell ezek közül. A 21. századra a mesterséges intelligencia gyorsan fejlődött, és a gépi tanulás egy új dimenzióját hozta el a „mély tanulás” néven ismert technológia révén. Ez neurális hálózatok fejlettebb változatát alkalmazza, amely sokkal több rétegből áll, így képes rendkívül komplex nemlineáris mintázatok felismerésére is. Míg a korábbi megközelítés elsősorban egyszerűbb problémák megoldására volt alkalmas, addig a mély tanulás nagy adatmennyiségekkel működik, így széles körben alkalmazzák összetettebb feladatok elvégzésére, mint például képfelismerés, természetes nyelvi feldolgozás és önvezető járművek irányítása.
A technológia rövid történeti áttekintése után térjünk rá a jelent is érintő, felmerülő problémákra. Ezek közül az egyik fontos terület az adatvédelem – az MI-rendszerek nagy mennyiségű személyes adatot gyűjtenek és elemeznek, amelyek lehetővé teszik, illetve megkönnyítik az egyének részletes profilozását. A profilalkotás, az adatlopás és a célzott manipuláció mind olyan fenyegetések, amelyek az egyének magánéletét és biztonságát veszélyeztethetik. Az adatvédelmi és etikai aggályok könnyen összekapcsolhatók. Az MI képes automatizált döntéseket hozni az emberek személyes adatai alapján. Egyes rendszerek például hitelbírálatokat végeznek vagy állásinterjúkat szűrnek, anélkül, hogy egyértelmű lenne, milyen szempontokat vettek figyelembe a döntés meghozatalakor. Kapcsolódó fogalom a „„fekete doboz” problémája, amely az MI-rendszerek működését övezi. A mesterséges intelligencia algoritmusai gyakran nehezen érthetők, így nem mindig lehet világosan rekonstruálni a döntések hátterét. Ez tehát komoly aggályokat vet fel bármely olyan területen, ahol mesterséges intelligencia segít a döntéshozatalban.

Kép forrása: Vecteezy
A deepfake technológia révén hitelesnek tűnő, hamisított tartalmak hozhatók létre, amelyek politikai és társadalmi manipulációra is használhatók. Az adathalászat automatizálása az MI segítségével egyszerűbbé, kifinomultabbá és hatékonyabbá válik, habár emellett a fejlett támadások kivédésére is alkalmazható. Az MI-t használó kibertámadások gyorsabbak és nehezebben észlelhetők lehetnek, hiszen az algoritmusok akár arra is képesek lehetnek, hogy alkalmazkodjanak a védelmi rendszerekhez. Ezen technológiák egyre szélesebb körű elterjedése miatt a vállalatok és az állami szervek várhatóan folyamatosan új stratégiák kidolgozására kényszerülnek a digitális biztonság fenntartása érdekében.
A munkaerőpiaci és társadalmi egyenlőtlenségek növekedése szintén komoly problémát jelenthet. Az automatizációval egyre több munkahely szűnik meg, különösen az alacsonyabb képzettséget igénylő szektorokban. A technológiai fejlődés tovább mélyítheti a „digitális szakadékot”, és növelheti a gazdasági hatalmi koncentrációt a nagy technológiai vállalatok javára. Az MI bevezetése különösen a monoton, ismétlődő munkák kiváltására fókuszál, ami csökkentheti a foglalkoztatási lehetőségeket az érintett szektorokban. Ugyanakkor az MI új álláslehetőségeket is teremt, azonban ezekhez magasabb szintű digitális készségek szükségesek, ez pedig fokozza a társadalmi egyenlőtlenségeket.
A jogi és etikai kihívások között kiemelkedő az MI-alapú döntéshozatal átláthatóságának és igazságosságának kérdése. Az arcfelismerő rendszerek például hajlamosak lehetnek bizonyos demográfiai csoportok hátrányos megkülönböztetésére. A felelősség kérdése is tisztázatlan, hiszen az MI által hozott döntések jogi következményei gyakran nem egyértelműek. Egyes országokban az MI döntései már bírósági ügyekben is szerepet kapnak, ami jogi precedensek és szabályozások hiányában súlyos problémákat okozhat. Az MI etikai kérdései közé tartozik a diszkriminációmentesség, az előítéletek kezelése és az algoritmusok felelősségre vonhatósága. A mesterséges intelligencia fejlődése és alkalmazása egyre inkább szükségessé teszi a szabályozási keretek kialakítását. A nem megfelelő szabályozás a fejlesztők számára teret adhat arra, hogy az MI-t etikátlan vagy jogellenes célokra használják fel. A világ különböző országaiban különböző mértékben próbálnak reagálni az új kihívásokra a jogalkotók, de a szabályozás terén jelentős eltérések figyelhetők meg. Az Európai Unió, például a szabályozások élére állt egy mesterséges intelligenciáról szóló rendelet kidolgozásával, amely célja, hogy az MI-rendszerek biztonságosak, etikusnak tekinthetők, megbízhatók legyenek. Ennek érdekében szankciókat is meghatároztak, a jogszabály pénzbírságokat állapít meg a szabályok megsértésének eseteire. Négy kategóriába sorolják a mesterséges intelligencia felhasználását, melyekhez különböző szabályokat és kötelezettségeket állapítanak meg. Az EU és más jogalkotó hatóságok igyekeznek a mesterséges intelligencia alkalmazását a társadalmi normák és az alapvető jogok, például az adatvédelem és az emberi jogok tiszteletben tartásával biztosítani.
Az MI militarizálása és geopolitikai kockázatai új típusú fegyverkezési versenyhez vezethetnek. Az autonóm fegyverrendszerek emberi beavatkozás nélkül hozhatnak döntéseket, ami újfent etikai és jogi dilemmákat, felelősséggel kapcsolatos kérdéseket vetnek fel. Alkalmazása a hadászatban destabilizálhatja a jelenlegi nemzetközi politikai erőviszonyokat, fokozhatja a katonai konfliktusok eszkalációját. Az MI-alapú drónok és autonóm fegyverek elterjedése nemcsak a hadseregek működését változtathatja meg, hanem új típusú háborús stratégiákat is létrehozhat. Egyre több ország fektet be ilyen jellegű haditechnológiák fejlesztésébe, mely komoly globális következményekkel járhat.
A mesterséges intelligencia tehát egy olyan eszközzé vált, amely egyszerre hoz előnyöket és kockázatokat mind egyéni, mind társadalmi szinten. Miközben lehetőséget ad a hatékony adatgyűjtésre és feldolgozásra, a gyorsabb, pontosabb döntéshozatalra, addig a technológia ártó szándékú felhasználásával kapcsolatos aggályok is egyre nagyobb szerepet kapnak. Szabályozásának nehézsége nemcsak a technológia fejlődésének gyors ütemétől, hanem annak társadalmi elfogadottságától és hatásából is fakad. A diszkrimináció, az átláthatóság hiánya és az egyéb kapcsolódó dilemmák mind olyan problémák, amelyekre különböző területekről érkező szakembereknek – jogalkotóknak és fejlesztőknek, a társadalomtudományok területén jártas kutatóknak – közösen kell választ adniuk.
Kiemelt kép: Pixabay