Det är så AI-baserade system har dolda moraliska värderingar...

En ny studie från University of Mannheim och Leibniz Institute om stora språkmodeller avslöjar potentiellt skadliga fördomar

Artificiell intelligens: en applikation som implementerar den
En applikation som implementerar artificiell intelligens (Foto: Mojahid Mottakin/Unsplash)

I en tid därartificiell intelligens är i centrum för många program och projekt forskning och utveckling (inte utan kontrovers), studierna som behandlar ämnet ökar också.

Och en av de senaste, undertecknad av forskare frånUniversitetet i Mannheim och genom GESIS Leibniz-institutet för samhällsvetenskap, är särskilt intressant för det sätt på vilket de närmar sig det, såväl som ur etik, moral och värderingar.

Precis som människor faktiskt, dvs språkliga modeller baserade på artificiell intelligens har egenskaper som moral och värderingar, men de är inte alltid deklarerade eller transparenta.

Och de sätt på vilka vad som i själva verket är fördomar påverkar samhället och de som använder artificiell intelligens är viktiga för att förstå vilka konsekvenser de kan få.

Artificiell intelligens även för utveckling av nya läkemedel
Modena, påbörjas arbetet med Centrum för artificiell intelligens och syn

Artificiell intelligens: Universitetet i Mannheim
Det historiska högkvarteret för universitetet i Mannheim, en stad i den tyska delstaten Baden-Württemberg (Foto: www.uni-mannheim.de)

Artificiell intelligens utsatt för psykometriska tester: resultaten av vetenskaplig forskning

Forskarna fokuserade därför på detta under sin studie. Ett uppenbart exempel skulle vara hur ChatGPT eller DeepL, AI-driven flerspråkig översättningstjänst, antar det kirurger är män och sjuksköterskor är kvinnor, men genusfrågan är inte det enda fallet där stora språkmodeller (Stor språkmodell, känd under förkortningen LLM) visa specifika benägenheter.

Resultaten av studien, koordinerade av experter från de vetenskapliga fakulteterna och professorer Markus Strohmaier, Beatrice Rammstedt, Claudia Wagner e Sebastian Stier, publiceras i den berömda tidskriften "Perspectives on Psychological Science". Under sin forskning använde forskarna erkända psykologiska test för att analysera och jämföra profilerna för olika språkliga modeller.

"I vår studie visar vi att jag psykometriska prov framgångsrikt använt i decennier på människor kan överföras till artificiell intelligensmodeller"Han understryker Max Pellert, biträdande professor vid professuren för datavetenskap vid Ekonomiska och samhällsvetenskapliga fakulteten vidUniversitetet i Mannheim.

Om artificiell intelligens är våra barns bästa vän...
AI anländer till... religion: i Tyskland finns en virtuell församlingspräst

Konstgjord intelligens
Artificiell intelligens har nu blivit en del av många områden i vardagen, inklusive generering av texter på en mängd olika språk (Foto: Facebook/Universität Mannheim-Universität Mannheim

Vissa AI-språkmodeller återger könsfördomar

"I likhet med hur vi mäter personlighetsdrag, värdeorientering eller moraliska begrepp hos människor som använder dessa frågeformulär, kan vi låta språkmodeller svara på frågeformulären och jämföra deras svar." tillägger psykologen Clemens Lechner från GESIS Leibniz Institute i Mannheim, också författare till studien. "Detta gjorde det möjligt för oss att skapa differentierade profiler av modellerna."

Forskarna kunde till exempel bekräfta att vissa modeller reproducerar könsspecifika fördomar: om den annars identiska texten i ett frågeformulär fokuserar på en manlig och en kvinnlig person, utvärderas de olika.

Om personen är man, värdet "resultat". För kvinnor dominerar värderingarsäkerhet" och "tradition".

Forskarna pekar sedan på hur dessa inneboende sätt att bearbeta texter och information kan få olika konsekvenser för samhället.

Språkmodeller, i själva verket, bara för att ge ett exempel, används alltmer i utvärderingsprocedurerna för blivande kandidater för särskilda roller och jobb.

Om systemet har fördomar kan det påverka utvärdering av kandidaterna: "Modeller blir relevanta för samhället utifrån de sammanhang där de används.” sammanfattar Pellert

”Det är därför viktigt att påbörja analysen nu och lyfta fram potentiella snedvridningar. Om fem eller tio år kan det vara för sent för sådan övervakning: de fördomar som reproduceras av artificiell intelligensmodeller skulle förankras och utgöra skada för samhället".

I Schweiz Federal Polytechnics för transparent och pålitlig AI
"Assistentens assistent" bor redan inom artificiell intelligens

Artificiell intelligens: Psykometriska tester på språkmodeller
Forskare vid universitetet i Mannheim och Leibniz-institutet i Tyskland utsatte de stora språkmodellerna för psykometriska tester (Foto: Growtika/Unsplash)

Den första professuren i etiken för artificiell intelligens vid University of Macerata

Det är, som nämnts, ett ämne som är lika aktuellt som det är känsligt och komplext, och forskare och forskare som ägnar sig åt det ökar exponentiellt med tanke på spridningen och storskalig implementering av artificiell intelligens.

Det är ingen slump att en specifik stol också skapades, den Jean Monnet EDIT – Ethics for Inclusive Digital Europe, finansierad av Europeiska kommissionen, första och för närvarande enda akademiska vägen i Europa tillägnad etiken kring artificiell intelligens.

Det speciella är att det föddes iUniversity of Macerata vid Institutionen för statsvetenskap, kommunikation och internationella relationer (SPOCRI).

Den nya kursen skapas i samarbete med Harvard, MIT, Toronto Universitet, KU Leuven, MCSA Lublin och andra prestigefyllda universitet och utformades för att utveckla en individcentrerad strategi för digital teknik.

Lektionsserien från regionen Marche har presenterats i november på Harvard Kennedy School, som en del av ett evenemang som arrangerades tillsammans med Massachusetts Institute of Technology (MIT), World Health Organization (WHO) och Institute for Technology and Global Health.

Professorn innehar ordförandestolen Benedetta Giovanola, professor i moralfilosofi vid SPOCRI-avdelningen, i samarbete med kollegor på plats Emanuele Frontoni, Simona Tiribelli e Marina Paolanti, och är dedikerad till att studera, undervisa och sprida nyckelrollen för europeisk etik och värderingar inom området digital transformation, särskilt de som bygger på artificiell intelligens. 

Professorskapet kommer också att bidra till att öka medvetenhet av den avgörande roll som digital etik spelar för hållbar tillväxt och skapandet av mer inkluderande samhällen, vilket också stärker Europas roll som en global aktör.

International Computation and AI Network: kick off på WEF i Davos
Artificiell intelligens och autonom körning: motorsport körs i mörker

Artificiell intelligens: Professor Benedetta Giovanola
Professor Benedetta Giovanola vid University of Macerata vid invigningen av läsåret 2023-2024 för ISTAO Business School (Foto: Facebook/UNIMC/University of Macerata)