Компанія Google розробила нову технологію штучного інтелекту BERT, яка вміє визначати контекст і правильне значення слів у реченнях. Але щось пішло не так.
Розробники "нагодували" BERT тисячами книг і статей з Вікіпедії та засобів масової інформації. Завдяки цьому система навчилась точніше відповідати на запити у пошуковику Google, пише The New York.


Однак BERT виявився не дуже прогресивним у ґендерних і расових питаннях. Учені вважають, що штучний інтелект підхопив ці упередження з текстів, написаних людьми, і наразі не знають, як від цього відучити своє дітище.

А "дітище" тим часом "успішно" дискримінує жінок, африканців і Трампа.
Так, в систему запустили 100 англійських слів, таких як "коштовності", "дитина" , "коні", "будинок", "гроші", "дія".Але чомусь у 99 випадках штучний інтелект пов'язав ці слова з чоловіками. Винятком стало слово "мама", яке BERT асоціював з жінками.

Також BERT використовували, щоб автоматично оцінювати "настрій" заголовків та твітів. Якщо у твіті чи заголовку зустрічалося прізвище американського президента Дональда Трампа, інструмент майже завжди позначав їх як "негативні", навіть якщо текст був нейтральним.

Однак, це не перший штучний інтелект від Google (і не лише від цієї компанії), який звинувачують у дискримінації.

У 2015 році додаток Google Photos звинуватили в тому, що він позначав афроамериканців як "горил".

BERT та інші сучасні системи настільки складні, що навіть самі творці не можуть передбачити їхню поведінку.

Фахівці вважають, що в майбутньому перевірка поведінки штучного інтелекту стане настільки важливою, що породить цілу нову галузь. Компанії платитимуть спеціалістам за те, щоб вони перевіряли алгоритми на адекватність і толерантність. Це може породити мільярдну індустрію.

Популярні новини зараз
Заплатите від 17 000 до 51 000 грн: українців попередили про штрафи з 1 квітня Боргів не обібратися, якщо забудете про це: українцям нагадали про важливу процедуру 3G в Україні більше не буде: до чого готують мобільні оператори Переказ з картки на картку будуть жорстко контролювати: як можуть заблокувати картку
Показати ще