http://komlomedia.hu/interreg-refresh2020/13-iq100/15139-hogyan-erositi-fel-a-mesterseges-intelligencia-a-tarsadalmi-igazsagtalansagokat#sigProId8df6c87e8d
Kutatók közel 2 millió eurót kaptak arra, hogy jobban megértsék, hogyan áshatja alá a mesterséges intelligencia az alapvető emberi értékeket.
A Cambridge-i Egyetem Leverhulme Centre for the Future of Intelligence (LCFI) kutatói közel 2 millió eurót kaptak arra, hogy jobban megértsék, hogyan áshatja alá a mesterséges intelligencia az "alapvető emberi értékeket".
A mesterséges intelligencia átalakítja a társadalmat, mivel az algoritmusok egyre inkább meghatározzák a munkahelyekhez és biztosításokhoz, az igazságszolgáltatáshoz, az orvosi kezelésekhez való hozzáférést, valamint a barátokkal és a családdal való mindennapi kapcsolattartást. A technológia gyors ütemű fejlődésével már kezdenek felsejleni a nem szándékolt társadalmi következmények is: az algoritmusok a faji előítéletektől kezdve az egészségügyi ellátásban a demokráciákba vetett hitet aláásó félretájékoztatásig mindent elősegítenek.
A Stiftung Mercator német filantróp alapítvány 2 millió eurós adománya - amelyet a Cambridge-i Egyetem kutatócsoportja számára nyújtottak - annak jobb megértését célozza, hogy a mesterséges intelligencia hogyan jelenthet veszélyt az emberi értékekre. Az adomány egy közel 4 millió eurós csomag része, amelynek keretében a cambridge-i csapat - amely társadalomtudósokat, filozófusokat és technológiai tervezőket is magában foglal - a Bonni Egyetemmel fog együttműködni. A mesterséges intelligencia kutatására nyújtott támogatás lehetővé teszi az LCFI és partnerei számára, hogy a mesterséges intelligencia iparával együttműködve olyan diszkriminációellenes tervezési elveket dolgozzanak ki, amelyek a technológiai fejlődés középpontjába az etikát helyezik.
Az LCFI csapata tájékoztatókat és képzéseket biztosít a mesterséges intelligencia fejlesztői számára, hogy megakadályozza, hogy a meglévő strukturális egyenlőtlenségek - a nemtől kezdve a nemi hovatartozáson át az osztály- és faji hovatartozásig - beépüljenek a fejlődő technológiákba és megerősítsék az ilyen társadalmi igazságtalanságokat.
Az új kutatási projekt, a "A vágyott digitalizáció: A mesterséges intelligencia újragondolása az igazságos és fenntartható jövő érdekében" című projektre annak apropójából kerül sor, hogy az Európai Bizottság a mesterséges intelligenciáról szóló törvényről egyeztet. A törvény célja, hogy a mesterséges intelligencia "megbízhatóbbá" és "emberközpontúbbá" váljon. A tervezett törvény előírja majd, hogy a mesterséges intelligencia rendszereket az alapvető jogokra és értékekre gyakorolt hatásuk szempontjából is értékelni kell.
"Hatalmas tudáshiány van" - mondta Dr. Stephen Cave, az LCFI igazgatója. "Jelenleg senki sem tudja, hogy ezek az új rendszerek milyen hatással lesznek az alapvető értékekre, a demokratikus jogoktól kezdve a kisebbségi jogokig, vagy hogy milyen intézkedések segíthetnek az ilyen veszélyek kezelésében. Az algoritmusok emberi méltóságra gyakorolt lehetséges hatásának megértéséhez túl kell lépni a kódokon, és figyelembe kell venni a történelem és a politikatudomány vívmányait is."
Az LCFI tavaly került a címlapokra, amikor elindította a világ egyetlen olyan mesterképzését, amely a mesterséges intelligencia etikájának oktatásával foglalkozik az iparág szakembereinek számára. Ez a támogatás lehetővé teszi, hogy új kutatási irányvonalakat fejlesszen ki, például az emberi méltóság vizsgálatát a digitális korban. "A mesterséges intelligenciával kapcsolatos technológiák nyitva hagyják az ajtót a veszélyes és régóta diszkreditált áltudományok előtt" - mondta Cave. Rámutat az arcfelismerő szoftverek veszélyeire, amelyek azt állítják, hogy " tipikus bűnözői arcokat" azonosítanak, és azzal érvel, hogy az ilyen állítások a viktoriánus frenológiával - miszerint egy személy jelleme a koponya alakja alapján felismerhető - és a hozzá kapcsolódó tudományos rasszizmussal rokonok.
Dr. Kanta Dihal - aki a projekt társvezetője lesz - azt fogja vizsgálni, hogy valójában kik és milyen irányvonalak alakítják a társadalom elképzeléseit a mesterséges intelligenciával kapcsolatos jövőről. "Jelenleg a mesterséges intelligenciáról alkotott elképzeléseinket világszerte Hollywood és egy szűk gazdag elit réteg irányítja" - mondta.
Az LCFI csapatában részt vesznek Dr. Kerry Mackereth és Dr. Eleanor Drage cambridge-i kutatók, a "The Good Robot" című podcast társműsorvezetői, akik azt vizsgálják, hogy lehet-e "jó" technológiánk, és hogy miért fontos a feminizmus a technológiai térben. Mackereth egy olyan projekten fog dolgozni, amely az ázsiai rasszizmus és a mesterséges intelligencia közötti kapcsolatot vizsgálja, míg Drage a mesterséges intelligencia munkaerő-toborzásban és -kezelésben való felhasználását vizsgálja.
"Az MI eszközök forradalmasítani fogják a munkaerő-felvételt és alakítani fogják a munka jövőjét a 21. században. Most, hogy munkavállalók milliói vannak kitéve ezeknek az eszközöknek, gondoskodnunk kell arról, hogy igazságot szolgáltassanak minden egyes jelöltnek, és ne állandósítsák a 19. századi felvételi gyakorlat rasszista áltudományát" - mondja Drage. "Nagyszerű, hogy a kormányok most lépéseket tesznek annak érdekében, hogy a mesterséges intelligencia fejlesztése felelősségteljesen történjen" - mondta Cave. "De a jogszabályok nem fognak sokat jelenteni, ha nem értjük meg igazán, hogy ezek a technológiák hogyan hatnak az alapvető emberi jogokra és értékekre."
Forrás: ipon.hu