Системы искусственного интеллекта могут демонстрировать признаки расизма. Такие выводы сделали ученые из Принстонского университета, проведя соответствующие исследования, пишет GoGetNews.

Для наблюдений специалисты использовали систему искусственного интеллекта GloVe, способную к самообучению. Она развивается с помощью анализа сетевых текстов и отмечает семантическую связь между словами.

В задании на ассоциации система должна была подобрать к словам типа "цветок" или "насекомое" другие слова, которые ученые определили как "приятные" и "неприятные", например, "семья" или "авария".

Читайте также: Искусственный интеллект научился писать посты за Кадырова

Когда GloVe предложили список имен, которыми чаще называют белых людей, интеллект определил их как "приятные". А вот вторая часть эксперимента шокировала исследователей, поскольку имена афроамериканцев он отнес к категории "неприятных" слов.

Популярные статьи сейчас
Пенсионеры могут получить тысячу гривен на лекарства: кому и на каких условиях выплатят пособие Выйдут на пенсию даже без рабочего стажа: кому из украинок доступна неожиданная привилегия Отслеживает геолокации и собирает данные: в сети раскрыли нюансы приложения "Резерв+" "Впереди кровавая осень": командир ВСУ посоветовал украинцам готовиться к худшему
Показать еще

По мнению ученых, все дело в том, что язык сам по себе несет постоянно используемые и точные отпечатки предрассудков, царящих в обществе.

Напомним, ученые из Университетского колледжа Лондона разработали программу, способную проанализировать и повторить почерк любого человека.