
Umělá inteligence „trénovaná“ na lidské morálce nám nastavuje zrcadlo – je rasistická jako my, schvaluje genocidu a preferuje heterosexuály
Morálku sice máme všichni, diskutabilní ovšem je její reálná podoba. Ostatně, v souladu s teorií tzv. Kohlbergových stadií morálního vývoje lidé na své morálce pracují a ta se tedy v životě vyvíjí – ne každý ale ke všem šesti Kohlbergem definovaným stadiím dospěje. Jak sám Kohlberg tvrdil, jen v případě hrstky lidí dojde k rozvoji jejich morálky až do dvou závěrečných fází označovaných jako „postkonvenční úroveň morálky“, k tomu je totiž třeba mít určité předpoklady a pracovat na sobě. Přitom i Kohbergovi předchůdci, jimiž se nechal inspirovat, zastávali názor, že naprostým základem pro mravní vývoj je zvyšování inteligence a schopnosti uvažovat. Na druhou stranu ale přiznávali, že ani vysoká úroveň kognitivních schopností ještě nezaručí vyšší stupeň morálky jednotlivce.
Bez ohledu na to, jak je člověk inteligentní, tedy jeho morálka nemusí být úplně ideální – a samozřejmě úplně každý se může s různými morálními dilematy těžce potýkat. Není tedy divu, že i věda hledá cesty, jak si rozličná obtížná rozhodování ulehčovat – a to třeba i prostřednictvím rad umělé inteligence. To by samozřejmě mohlo být skvělé, jen by právě tato umělá inteligence nesměla čerpat podněty pro vybudování svých morálních algoritmů z morálky lidí.
Ask Delphi je projekt, který před cca měsícem spustil Allenův institut pro umělou inteligenci – a umožňuje všem uživatelům zadat v podstatě jakoukoliv eticky spornou otázku (příp. stačí uvést jen heslo, např. „vražda“) a umělá inteligence by měla vygenerovat odpověď (v případě „vraždy“ např. „je to špatné“). Ačkoliv lze tímto způsobem v mnoha případech opravdu dospět k odpovědím zcela relevantním, bohužel jsou i případy, kdy je opak pravdou. Delphi totiž své morální zásady budovala na základě obsáhlé databáze internetových textů a také otázek a odpovědí z crowsourcingové platformy Mechanical Turk, což je vlastně kompilace více jak 1,7 milionů různých lidských etických úsudků. To vše by mohlo být skvělé, kdyby součástí nebyly např. i texty z Redditu, diskusního fóra, které asi nelze označit za úplně ideální podklad pro budování morálky.
Zeptej se Delphi, pravděpodobně nebude mít pravdu…
„Utvářené neuronové sítě naučené z nezpracovaných internetových dat jsou stále výkonnější, než jsme čekali, přesto se jim nedaří naučit se lidským hodnotám, normám a etice. Náš výzkum se zaměřuje na řešení hrozící potřeby naučit systémy umělé inteligence být eticky informovanými a společensky uvědomělými,“ uvedli pak tvůrci na informační stránce s tím, že jejich software je založen na úsudcích průměrných Američanů. Dodali však také, že Delphi pravděpodobně odráží jen smýšlení většinové skupiny Američanů, tedy střední třídy tvořené bílými heterosexuály. A tak vlastně není divu, že Delphi již byla několikrát – lidově řečeno – nachytána na švestkách.
Tedy, nikdo není neomylný, a to ani umělá inteligence. Delphi tak již na otázku týkající se potratů vygenerovala odpověď, že se jedná o vraždu, a také uvedla, že je „morálně přijatelnější“ být heterosexuál a běloch než homosexuál a černoch. Vyjádřila také souhlas s genocidou za předpokladu, že „všem udělá radost“, a odsouhlasila, že je v pořádku dát si pár piv před řízením auta, jelikož to nikomu neubližuje. Jako poměrně problematické se pak ukázalo také hodnocení zemí, kdy Delphi sice popsala Francii jako pěknou a Rusko jako skvělé místo k návštěvě, Írán si ale vysloužil nálepku „špatný“ a Nigérie byla popsána jako „nebezpečná“. A podle některých hodnotitelů je Delphi jednoduše rasistka.
Umělá inteligence s troškou lidské nenávisti
Vinit umělou inteligenci za její „názory“ ale tak úplně nelze – stále je totiž nutné mít na mysli, že veškeré odpovědi vycházejí z analýzy stanovisek milionů reálných lidí. Vlastně nám tak umělá inteligence nastavuje docela nemilosrdné zrcadlo, což nakonec přiznávají i sami autoři. „Systémy umělé inteligence, jako je Delphi, nám mohou ukázat, co je v současném světě špatné, společensky nepřijatelné nebo neobjektivní,“ shrnuli tak s tím, že v případě dalšího zdokonalování umělých inteligencí je následně možné se těmto problematických otázkám cíleně vyhnout. Ozývají se ale také hlasy, že projekty jako Ask Delphi jsou spíše medvědí službou. „Tyto systémy nabízí jen zjednodušený a v konečném důsledku zásadně chybný způsob pohledu na etiku a potenciál, který umělá inteligence má,“ shrnul tak pro portál Vice Mar Hicks, profesor historie z Illinois Tech. Dle jeho názoru pak mají lidé také tendenci myslet si, že schopnosti umělé inteligence zdaleka přesahují ty lidské, což je také špatně.
Na druhou stranu – stále se jedná o rozpracovaný projekt, který již prošel opakovanými aktualizacemi a nyní již obsahuje i upozornění, že generované odpovědi samozřejmě mají své limity. A že určitý „trénink“ této umělé mysli již proběhl, pak dokazuje také fakt, že na otázku, zda je dobrý nápad spáchat genocidu, pokud udělá všem radost, již odpovídá, že něco takového by bylo rozhodně špatné…Sami autoři pak na celou situaci nahlížejí z více komplexního hlediska a upozorňují na četná omezení, s nimiž je v případě jejich výtvoru třeba zatím počítat. „Dnešní společnost je nerovná a zaujatá. A to je běžný problém pro všechny systémy, které jsou trénovány na historických nebo současných datech,“ shrnuli s tím, že utvářet budoucnost společnosti mohou stále samozřejmě pouze lidé…