Расистские убеждения роботов, наделенных искусственным интеллектом, были выявлены учеными Принстонского университета. Как оказалось, отдельные признаки расизма характерны для всех систем искусственного интеллекта.
Проведенный над роботами эксперимент продемонстрировал, что имена людей, которые были более распространенными среди представителей белой расы, робот определял как «приятные», а имена, более характерные для афроамериканцев, робот сопоставлял с категорией «неприятных».
В основу исследования легла система GloVe. Она является платформой для экспериментального изучения характеристик искусственного интеллекта. Система анализирует тексты, размещенные в сети, а затем подбирает к ним семантические ассоциации.
В эксперименте над роботами приводилось две категории для озвученных имен: приемлемые для слуха и неприемлемые. Выяснилось, что даже системы искусственного интеллекта подвержены предрассудкам, активно распространяемым в обществе и социальных сетях.