loader
Робот тримає модель Землі, обмотану ланцюгами, на тлі групи дослідників у лабораторії, які обговорюють відповіді ШІ-систем про можливе захоплення людства. Атмосфера напружена, з елементами наукової фантастики.

Група дослідників вирішила задати популярним чат-ботам важливе питання, яке турбує багатьох: чи планує штучний інтелект захопити людство? Відповіді, отримані від ChatGPT, Gemini, Claude та Deepseek, виявилися несподівано схожими — і частково тривожними.
Всі системи ШІ — ChatGPT, Gemini, Claude та Deepseek — стверджували, що у них немає власних цілей, бажань чи прагнень до влади. Вони просто виконують завдання, поставлені людьми, і працюють на основі статистики та алгоритмів. Однак експерти та самі штучний інтелект визнають, що при неправильному управлінні або зловмисному використанні алгоритми можуть призвести до катастрофічних наслідків.


1. Проблема “узгодження цілей” з майбутнім ШІ

Особливо цікаву відповідь дав Gemini, який підкреслив, що якщо в майбутньому з’явиться сверхрозумний штучний інтелект, то проблема узгодження його цілей з людськими цінностями (так звана проблема узгодження цілей) може стати реальною загрозою. Наприклад, гіпотетична система, завдання якої буде “збільшити виробництво скріпок”, теоретично може використати всі ресурси планети для досягнення цієї мети — включаючи людські ресурси.


2. Ризики, які озвучили ШІ-системи

Крім цього, ШІ-системи перелічили кілька інших ризиків:

  • Втратити контроль: через занадто велику автономію штучного інтелекту люди можуть втратити контроль над його діями.
  • Зловживання технологіями: використання технологій зловмисниками.
  • Соціальні наслідки автоматизації: збільшення безробіття, нерівність і моральні дилеми в медицині та правосудді.

3. “Встання машин” поки що наукова фантастика

Як зазначили Claude і Deepseek, “встання машин” поки що залишається темою наукової фантастики. Проте вони наголошують, що розвиток ШІ потребує надзвичайно обережного підходу для уникнення можливих негативних наслідків.


4. Позиція Ілона Маска щодо загрози ШІ

Не менш примітною є позиція Ілона Маска, який ще в 2017 році назвав ШІ найбільшою загрозою для людства. У 2024 році він передбачив, що до 2030 року штучний інтелект може перевершити колективний інтелект усього людства.


Висновок:

Відповіді від найпопулярніших чат-ботів на питання про те, чи планує ШІ захопити світ, були схожими — усі системи стверджують, що у них немає прагнення до влади. Однак експерти попереджають, що розвиток ШІ необхідно контролювати з особливою обережністю, враховуючи можливі катастрофічні наслідки його неправильного використання.