Комп'ютерний експерт професор Стюарт Рассел каже, що ризик, пов'язаний з машинами для вбивства з штучним інтелектом, які вже можуть ідентифікувати людські цілі, настільки великий, що він хоче, щоб вони були заборонені.
Відповідну публікацію розмістили на порталі «Daily Star»
Військове командування попередило, що людство стикається із загрозою знищення розумною зброєю в стилі Термінатора.
Машинами для вбивства зі штучним інтелектом вже можуть знаходити і вбивати конкретні людські цілі.
Представник Каліфорнійського університету сказав: "Смертельний квадрокоптер на базі штучного інтелекту може бути розміром з банку крему для взуття. Досить близько 3 г вибухівки, щоб убити людину з близької відстані. Контейнер може вмістити мільйон смертоносних боєприпасів, і всі вони можуть бути відправлені виконувати свою роботу одночасно".
Масштабне підвищення пенсій: чого чекати від індексації у 2026 році
Терміново перевіряйте "Дію": ТЦК почали розсилати нові штрафи українцям
У школах та дитсадках з'являться нові уроки: чого навчатимуть та до якого віку
Знижка на кожен кубометр: як менше платити за спожитий газ
Боти-реальний відгомін сюжету фільму Арнольда Шварценеггера 1984 року "Термінатор".
Міноборони вкладає великі кошти в ШІ, але заявило, що в його зброї завжди буде задіяна людина в процесі стрільби.
"Я думаю, доречно трохи страху, а не страху, коли ви встаєте завтра вранці і думаєте, що мій ноутбук вб'є мене або щось в цьому роді, але потрібно думати про майбутнє... Я б сказав, що у нас такий же страх з приводу клімату", - сказав він технологічному кореспонденту BBC Рорі Селлан-Джонс.
Експерт додав, що військова частина лекцій сама по собі заслуговує окремої розмови.
"Причина, полягає в тому, що зброя, про яку ми говорили останні шість або сім років, зараз починає вироблятися і продаватися", - підсумував представник Каліфорнійського університету.
Як раніше повідомляв портал "Znaj", у мережі показали роботів-кур'єрів.