Boti arī rada aizspriedumus

Mākslīgais intelekts iemācās aizspriedumainu izturēšanos pat bez cilvēka

Mākslīgais intelekts arī rada aizspriedumus. © Andrea Danti / domnīca
lasīt skaļi

Iepriekš izlemti roboti: Mākslīgais intelekts acīmredzami var radīt aizspriedumus pat bez aizspriedumaina cilvēka ieguldījuma. Datorsimulācijas ar viedajiem robotprogrammatūrām parāda, ka datora smadzenes rīkojas aizspriedumaini, vērojot un kopējot citas mašīnas. Tas rada dinamiku, kas ir pazīstama arī no cilvēku sabiedrībām, kā ziņo pētnieki žurnālā "Scientific Reports".

Datorsistēmas, kas atdarina cilvēka intelektu, tagad apgūst pārsteidzošas spējas: mašīnu smadzenes patstāvīgi novērtē vai pat raksta valodu, attēlus un tekstus. Turklāt viņi viens otru ir kaut ko iemācījušies

un viegli tikt galā ar sarežģītiem izaicinājumiem. Tāpēc nākotnē mākslīgais intelekts (AI) varētu uzņemties vairāk uzdevumu mūsu ikdienas dzīvē.

Tomēr šeit pastāv problēma: Tā kā šādas sistēmas bieži apgūst savas prasmes, izmantojot cilvēku sniegtos datus, tās dažreiz pārņem cilvēku aizspriedumus. Rezultāts ir, piemēram, rasistiskas vai seksistiskas datoru smadzenes. Bet tā, it kā tas nebūtu pietiekami satraucoši, zinātnieki tagad ir atraduši pierādījumus tam, ka mākslīgais intelekts pat bez aizspriedumaina mūsu ieguldījuma var radīt aizspriedumus.

Kā rodas aizspriedumi?

Savā pētījumā Kārdifas universitātes Rodžers Vithakers un viņa kolēģi izmantoja datorsimulācijas, lai izpētītu, kā tiek radīti un pamatoti aizspriedumi. Viņu modelī 100 viedie robotprogrammatori mijiedarbojās “dod un ņem” spēlē, kur viņiem vajadzētu vai nu ziedot kādam no savas komandas, vai spēles dalībniekam no ārpuses. displejs

Kas domāja, šie virtuālie aktieri izlēma, balstoties uz savu spēles stratēģiju un citu cilvēku reputāciju. Kurš sadarbotos ar kuru - un kurš izslēgtu no ziedojumiem? "Spēlējot šīs simulācijas tūkstošiem reižu, mēs varējām redzēt, kā veidojas atrunas par citiem un ar kādiem nosacījumiem viņi tiek paaugstināti, " saka Vitakers.

Vienmēr vairāk neobjektīvi

Novērtējums parādīja, ka jo biežāk zinātnieki spēlēja, izmantojot simulācijas, jo neobjektīvāki kļuva robotprogrammatūras. Laika gaitā viņi arvien vairāk tiecās no ziedojumiem izslēgt ārējo grupu dalībniekus un rīkoties vienīgi savas komandas ietvaros. Īsāk sakot, viņi izstrādāja arvien spēcīgākus aizspriedumus pret "otru".

Vitakers un viņa kolēģi novēroja, ka viedie roboti pielāgoja spēles stratēģiju, kopējot citus dalībniekus - tos, kuri īstermiņā savāca visvairāk naudas un tāpēc bija visveiksmīgākie. Tā rezultātā izveidojās aktieru grupas, kas rīkojās līdzīgi un konsekventi izslēdza spēles nesaistītus dalībniekus. Aizsardzības līmenis bija īpaši augsts, ja virtuālajā populācijā bija maz, nevis daudz dažādu grupu.

Vienkārša kopēšanas uzvedība

Boti attiecīgi uzzināja par savu aizspriedumu, vienkārši nokopējot citu datoru smadzenes. "Tas liek domāt, ka aizspriedumu veidošanai nav vajadzīgas augstākas izziņas spējas, " raksta pētnieki. Pēc viņu teiktā, šķiet skaidrs, ka mākslīgajam intelektam nav nepieciešami cilvēka radītie dati, lai tas būtu neobjektīvs - pietiek ar to, ka apkārt ir citas mašīnas.

"Daudzu AI attīstības pamatā ir autonomija un paškontrole. Tas nozīmē, ka šādu mašīnu izturēšanos ietekmē arī citas ap tām esošās mašīnas. Mūsu pētījums parāda, kas teorētiski var notikt ar aktieriem, kuri regulāri paļaujas uz citu resursiem, "atzīmē Vitakers.

"Tas parāda, ka šādu mašīnu kolektīvais intelekts ir potenciāli jutīgs pret parādību, kuru mēs zinām no cilvēku sabiedrībām, " secina komanda. (Zinātniskie ziņojumi, 2018. gads; doi: 10.1038 / s41598-018-31363-z)

(Kārdifas universitāte, 10.09.2018. - DAL)