Останнім часом бурхливий розвиток інформаційних технологій викликає чимало суперечок і побоювань. Зокрема озвучується версія, згідно з якою штучний інтелект може розвинутися до такого ступеня, що з часом поневолить людей. Однак, Джон Джаннандреа, голова пошукового сервісу Google, не бачить реальних причин для такого занепокоєння. Він, як повідомляє MIT Technology Review, переконаний, що більшу небезпеку несуть алгоритмічні помилки допущені в процесі машинного навчання.

"Справжня проблема безпеки, якщо вам завгодно так її називати, полягає в тому, що якщо ми дамо цим системам необ'єктивні дані, вони самі стануть необ'єктивні. Важливо, щоб ми дотримувалися прозорості щодо даних, які ми використовуємо для навчання ШІ, і шукали в них неточності, інакше ми створимо упереджені системи, — говорить Джаннандреа. — Якщо хтось намагається продати вам чорний ящик, який ставить медичний діагноз, а ви не знаєте, як він працює, або на якихось даних його навчали, то я б не став йому довіряти".

Щодо переживань Ілона Маска з приводу можливої тиранії штучного інтелекту, Джаннандреа налаштований скептично. На його думку, машина не зможе не тільки панувати над людиною, але і нормально функціонувати без неї.

Раніше портал "Знай.ua" повідомляв про перспективи віртуальної реальності

Популярні новини зараз
Більше не видурять гроші: як перевірити, що сайт, банківська картка чи мобільний номер є шахрайськими Відмова може бути вигідною: українцям пояснили переваги Екс-командир звернувся до тих, хто шукає багатодітних дружин та бабусь як "страховку": "Є ще один варіант..." Чому в СРСР будували 5- та 9-поверхівки - ви навіть не здогадуєтеся, у чому "секрет"
Показати ще