Учені і програмісти перестали розуміти, як саме приймає рішення штучний інтелект.

Експерти повідомляють, що потрібно діяти вже зараз, поки система не стала надто складною.

“Ми не хочемо приймати за належне вирішення ШІ, без розуміння їх логіки, - говорить Джейсон Йосински з Über. - Щоб суспільство прийняло моделі машинного навчання, ми повинні знати, як ІЇ приймає рішення".

Популярні новини зараз
"Анти-ТЦК у шкарпетці": в Україні почали торгувати новими гаджетами для "бусифікованих" Нові правила переказів: які гроші заборонять переказувати Українців попередили про посилення мобілізації з 1 січня: ТЦК працюватимуть на 7 локаціях ПФУ спише частину коштів: у пенсіонерів заберуть 30% виплати
Показати ще

Проблема, яку багато експертів називають "чорною коробочкою", дійсно серйозна. Попередній досвід показав, що ШІ має схильність приймати неупереджені рішення і проводити аналогії там, де їх не слід було б проводити.

Помилка ИИ може обійтися дуже дорого, наприклад, під час таких операцій, як космічна місія на Марс. Апарати знаходяться в 200 млн миль від Землі і коштують сотні мільйонів доларів, говорить Кірі Вагстафф ШІ-експерт в Jet Propolusion Lab (NASA).

Проте вчені вже намагаються знаходити методи, що дозволяють зрозуміти логіку штучного інтелекту. Наприклад, дослідник з Google Метра Рагху представила доповідь, в якому описується процес відстеження дій окремих "нейронів" нейромережі.

Аналізуючи мільйони операцій, їй вдалося зрозуміти, які з штучних нейронів" концентрувалися на хибних уявленнях, і відключити їх.

"Це схоже на те, як шкільні вчителі просять дітей переказати своїми словами, що вони зрозуміли з пояснень вчителя", - говорить Вагстафф.

Раніше портал "Знай.uа" зібрав топ-5 міфів про пиво.