Компьютерный эксперт профессор Стюарт Рассел говорит, что риск, связанный с машинами для убийства с искусственным интеллектом, которые уже могут идентифицировать человеческие цели, настолько велик, что он хочет, чтобы они были запрещены.
Соответствующую публикацию разместили на портале «Daily Star»
Военное командование предупредило, что человечество сталкивается с угрозой уничтожения умным оружием в стиле Терминатора.
Машинами для убийства с искусственным интеллектом уже могут находить и убивать конкретные человеческие цели.
Представитель Калифорнийского университета сказал: «Смертоносный квадрокоптер на базе искусственного интеллекта может быть размером с банку крема для обуви. Достаточно около 3 г взрывчатки, чтобы убить человека с близкого расстояния. Контейнер может вместить миллион смертоносных боеприпасов, и все они могут быть отправлены выполнять свою работу одновременно».
"Бусификацию" обещают искоренить: ТЦК применят новый подход к мобилизации
Новые правила бронирования от мобилизации: что изменится с 1 декабря
Масштабное мартовское повышение пенсий: 2300 получат не все
Украинцам выплатят по 4 500 гривен: кому посчастливится получить помощь
Боты - реальный отголосок сюжета фильма Арнольда Шварценеггера 1984 года «Терминатор».
Минобороны вкладывает большие средства в ИИ, но заявило, что в его оружии всегда будет задействован человек в процессе стрельбы.
«Я думаю, уместно немного страха, а не страха, когда вы встаете завтра утром и думаете, что мой ноутбук убьет меня или что-то в этом роде, но нужно думать о будущем... Я бы сказал, что у нас такой же страх по поводу климата», - сказал он технологическому корреспонденту BBC Рори Селлан-Джонс.
Эксперт добавил, что военная часть лекций сама по себе заслуживает отдельного разговора.
«Причина, заключается в том, что оружие, о котором мы говорили последние шесть или семь лет, сейчас начинает производиться и продаваться», - подытожил представитель Калифорнийского университета.
Как ранее сообщал портал "Znaj", в сети показали роботов-курьеров.