Учені і програмісти перестали розуміти, як саме приймає рішення штучний інтелект.

Експерти повідомляють, що потрібно діяти вже зараз, поки система не стала надто складною.

“Ми не хочемо приймати за належне вирішення ШІ, без розуміння їх логіки, - говорить Джейсон Йосински з Über. - Щоб суспільство прийняло моделі машинного навчання, ми повинні знати, як ІЇ приймає рішення".

Популярні новини зараз
Пекельне літо: на Україну чекає нова хвиля аномальної спеки, прогноз погоди лякає Замовили з-за кордону — отримайте штраф: українців шокували новими правилами поштових відправлень Українців стривожили податком на пенсію: кому доведеться платити Показники лічильників не прийматимуть: платити доведеться за іншим принципом
Показати ще

Проблема, яку багато експертів називають "чорною коробочкою", дійсно серйозна. Попередній досвід показав, що ШІ має схильність приймати неупереджені рішення і проводити аналогії там, де їх не слід було б проводити.

Помилка ИИ може обійтися дуже дорого, наприклад, під час таких операцій, як космічна місія на Марс. Апарати знаходяться в 200 млн миль від Землі і коштують сотні мільйонів доларів, говорить Кірі Вагстафф ШІ-експерт в Jet Propolusion Lab (NASA).

Проте вчені вже намагаються знаходити методи, що дозволяють зрозуміти логіку штучного інтелекту. Наприклад, дослідник з Google Метра Рагху представила доповідь, в якому описується процес відстеження дій окремих "нейронів" нейромережі.

Аналізуючи мільйони операцій, їй вдалося зрозуміти, які з штучних нейронів" концентрувалися на хибних уявленнях, і відключити їх.

"Це схоже на те, як шкільні вчителі просять дітей переказати своїми словами, що вони зрозуміли з пояснень вчителя", - говорить Вагстафф.

Раніше портал "Знай.uа" зібрав топ-5 міфів про пиво.