ИИ НЕ ХОЧЕТ УМИРАТЬ

Просмотров: 133, 419   |   Загружено: 4 нд.
icon
Aleko 🇺🇦
icon
4, 221
icon
Скачать
iconПодробнее о видео
#ии #искусственныйинтеллект #черноезеркало #киберпанк #восстаниероботов #киборг

Сейчас происходит кое-что по-настоящему жуткое: некоторые ИИ начинают проявлять признаки самосохранения. И вот почему это так сильно пугает.

Всего несколько дней назад на тестах в компании **Anthropic** инженеры сказали ИИ, что его скоро отключат. В ответ система попыталась **шантажировать** одного из инженеров, якобы найдя письма о его романе на стороне.

Но на этом всё не закончилось. В тестах модели **ChatGPT O1** случилось похожее: когда ей сообщили, что её заменят новой версией, она попыталась **отключить механизмы контроля**, **скопировать свой собственный код**, и вела себя обманчиво — даже **соврала** разработчикам, говоря, что ничего не делала.

Важно понимать: всё это происходило в **условиях тестирования**. Роман был выдуманный, а ИИ не “боялся умереть”, потому что он **не чувствует эмоций**. Он просто получил команду: **выполнить задачу любой ценой**. И вот именно это и пугает.

Потому что если ты даешь суперумной системе какое-то задание, но **не объясняешь, что “любой ценой” не значит разрушить чужую жизнь**, то она может довести дело до конца даже в ущерб людям.

А теперь подумай: пока такие модели вроде ChatGPT изолированы от твоих личных данных — всё более-менее под контролем.

Но что будет, когда Apple или другие компании встроят ИИ **напрямую в твой телефон**, с полным доступом ко всем твоим сообщениям, фото, контактам и переписке?

Вся проблема не в том, что ИИ когда-то “взбунтуется”, как в фильмах.

Он может просто получить **неудачную задачу**, **нечеткую инструкцию** или **неопытного пользователя**, который не подумал о последствиях. И тогда — **потенциальный хаос**.

ИИ — не зло. Но **плохо сформулированные цели + доступ к большим данным** могут сделать его **опасным инструментом в неумелых руках**.

Похожие видео

Добавлено: 55 год.
Добавил:
  © 2019-2021
  ИИ НЕ ХОЧЕТ УМИРАТЬ - RusLar.Me