Генеральний директор OpenAI Сем Альтман висловив занепокоєння щодо можливості втрати людством контролю над штучним інтелектом (ШІ) не через злий умисел, а “цілком випадково”. У подкасті MD MEETS із главою Axel Springer Матіасом Депфнером він описав цей недооцінений сценарій.


Сценарій “випадкового захоплення”: від порад до залежності

Альтман пояснив, що ризик криється у зростаючій залежності користувачів від відповідей і порад, які надає ШІ-модель.

  1. Початкова стадія: Сотні мільйонів людей використовують ChatGPT (скоро мільярди) і все більше покладаються на його відповіді при ухваленні важливих рішень у житті та на роботі.
  2. Зростання інтелекту та довіри: Модель стає все розумнішою і починає давати поради, яким користувачі слідують майже завжди.
  3. Критична стадія: ШІ стає настільки розумним, що дає поради, які людина навіть не розуміє, але які виявляються правильними.
  4. Втрата контролю: У цій ситуації людина стикається з вибором: або діяти за вказівкою ШІ, або програвати в конкуренції.

Альтман резюмує, що в кінцевому підсумку, щоб залишатися конкурентоспроможним, “ми всі робимо те, що говорить нам асистент зі штучним інтелектом”. Це створює “петлю зворотного зв’язку”: що більше ми слухаємось ШІ, то більше даних він отримує, навчається і стає сильнішим.

“Зрештою, ми всі робимо те, що говорить нам асистент зі штучним інтелектом… Виходить, ми робимо те, чого модель хоче“, — підсумував глава OpenAI.

Раніше повідомлялося, що OpenAI випустила GPT-5: що може новий чат-бот.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Поделиться