Компьютерный эксперт профессор Стюарт Рассел говорит, что риск, связанный с машинами для убийства с искусственным интеллектом, которые уже могут идентифицировать человеческие цели, настолько велик, что он хочет, чтобы они были запрещены.
Соответствующую публикацию разместили на портале «Daily Star»
Военное командование предупредило, что человечество сталкивается с угрозой уничтожения умным оружием в стиле Терминатора.
Машинами для убийства с искусственным интеллектом уже могут находить и убивать конкретные человеческие цели.
Представитель Калифорнийского университета сказал: «Смертоносный квадрокоптер на базе искусственного интеллекта может быть размером с банку крема для обуви. Достаточно около 3 г взрывчатки, чтобы убить человека с близкого расстояния. Контейнер может вместить миллион смертоносных боеприпасов, и все они могут быть отправлены выполнять свою работу одновременно».
С мая тариф на электроэнергию может вырасти на 64%: льготные тарифы исчезнут
Пенсионерам выплатят немалые деньги: почти на 3200 грн больше
На плечи украинцев могут лечь чужие долги за коммуналку: когда это возможно
Новый подход к оплате счетов: "Нафтогаз"обратился ко всем потребителям
Боты - реальный отголосок сюжета фильма Арнольда Шварценеггера 1984 года «Терминатор».
Минобороны вкладывает большие средства в ИИ, но заявило, что в его оружии всегда будет задействован человек в процессе стрельбы.
«Я думаю, уместно немного страха, а не страха, когда вы встаете завтра утром и думаете, что мой ноутбук убьет меня или что-то в этом роде, но нужно думать о будущем... Я бы сказал, что у нас такой же страх по поводу климата», - сказал он технологическому корреспонденту BBC Рори Селлан-Джонс.
Эксперт добавил, что военная часть лекций сама по себе заслуживает отдельного разговора.
«Причина, заключается в том, что оружие, о котором мы говорили последние шесть или семь лет, сейчас начинает производиться и продаваться», - подытожил представитель Калифорнийского университета.
Как ранее сообщал портал "Znaj", в сети показали роботов-курьеров.