Комп'ютерний експерт професор Стюарт Рассел каже, що ризик, пов'язаний з машинами для вбивства з штучним інтелектом, які вже можуть ідентифікувати людські цілі, настільки великий, що він хоче, щоб вони були заборонені.

Відповідну публікацію розмістили на порталі «Daily Star»

Військове командування попередило, що людство стикається із загрозою знищення розумною зброєю в стилі Термінатора.

Машинами для вбивства зі штучним інтелектом вже можуть знаходити і вбивати конкретні людські цілі.

Представник Каліфорнійського університету сказав: "Смертельний квадрокоптер на базі штучного інтелекту може бути розміром з банку крему для взуття. Досить близько 3 г вибухівки, щоб убити людину з близької відстані. Контейнер може вмістити мільйон смертоносних боєприпасів, і всі вони можуть бути відправлені виконувати свою роботу одночасно".

Популярні новини зараз

Гречку, соняшникову олію та борошно будемо купувати за новими цінами: скільки доведеться викласти

Зміни у тарифах: мобільний оператор Lifecell зробив важливе оголошення

Посилення мобілізації в Україні: як позбавлятимуть прав ухилянтів

Для ФОП вступили у дію нові правила

Показати ще

Штучний інтелект

Боти-реальний відгомін сюжету фільму Арнольда Шварценеггера 1984 року "Термінатор".

Міноборони вкладає великі кошти в ШІ, але заявило, що в його зброї завжди буде задіяна людина в процесі стрільби.

"Я думаю, доречно трохи страху, а не страху, коли ви встаєте завтра вранці і думаєте, що мій ноутбук вб'є мене або щось в цьому роді, але потрібно думати про майбутнє... Я б сказав, що у нас такий же страх з приводу клімату", - сказав він технологічному кореспонденту BBC Рорі Селлан-Джонс.

Експерт додав, що військова частина лекцій сама по собі заслуговує окремої розмови.

Штучний інтелект

"Причина, полягає в тому, що зброя, про яку ми говорили останні шість або сім років, зараз починає вироблятися і продаватися", - підсумував представник Каліфорнійського університету.

Як раніше повідомляв портал "Znaj", у мережі показали роботів-кур'єрів.