Новини Нікополя - nikopoltoday.com

Штучний інтелект може призвести до вимирання людей: нове опитування

Nadia Kornienko - nikopoltoday.com
, 2024-01-05 16:59:22

На читання тексту піде: 3 хвилин, 260

У дослідженні визнається, що все ще існує значна невизначеність щодо довгострокового впливу штучного інтелекту і що його "важко передбачити навіть експертам".

Штучний інтелект може призвести до вимирання людей

Багато технічних експертів попереджають, що штучний інтелект знаходиться на шляху знищення, але нове опитування провідних дослідників кількісно оцінило ймовірність того, що штучний інтелект призведе до вимирання людства. Про це пише видання Daily Mail.

Міжнародна команда вчених опитала 2778 експертів зі штучного інтелекту про майбутнє системи, і 5% з них відповіли, що ця технологія призведе до краху. А, один з 10 дослідників, сказав, що ймовірність того, що штучний інтелект знищить людську расу, становить 25 відсотків.

Штучний інтелект може дозволити загрозливим групам створювати потужні інструменти, такі як штучні віруси авторитарні правителі використовують штучний інтелект для контролю населення, а системи штучного інтелекту погіршують економічну нерівність, приносячи непропорційну користь певним особам.

Регулювання ШІ - це єдина відповідь на питання захисту людей, і дослідники підрахували, що якщо ШІ не регулювати, то існує 10% ймовірність того, що машини перевершать людей у виконанні всіх завдань до 2027 року, а до 2047 року ця ймовірність зросте до 50%.

У дослідженні експертів запитали про чотири конкретні професії, які будуть повністю автоматизовані, включаючи водіїв вантажівок, хірургів, роздрібних торговців і дослідників ШІ, і виявили 50%-ву ймовірність того, що ШІ візьме повний контроль над роботою до 2116 року.

Це важливий сигнал про те, що більшість дослідників штучного інтелекту не вважають абсолютно неправдоподібним те, що передовий штучний інтелект знищує людство - казала Катя Грейс, одина з авторів дослідження.

Також вона додала, що ця загальна віра в незначний ризик є набагато більш промовистою, ніж точний відсоток ризику.

Близько 58% дослідників оптимістично налаштовані щодо поглинання ШІ, оскільки існує лише п'ятивідсоткова ймовірність того, що ШІ призведе до вимирання людства.

Організація Об'єднаних Націй (ООН) вже поширила попередження про те, що терористичні групи використовують ШІ зі зловмисними намірами, заявивши, що він стане новим інструментом в їхньому арсеналі.

З перевіреним досвідом у світі кіберзлочинності, [ШІ] є потужним інструментом, який, імовірно, можна використовувати для сприяння тероризму та насильницькому екстремізму, що сприяє тероризму, наприклад, забезпечуючи нові способи фізичних атак за допомогою безпілотників або безпілотні автомобілі, посилення кібератак на критично важливу інфраструктуру або сприяння поширенню мови ненависті та підбурювання до насильства швидшим і ефективнішим способом», – заявила директор ООН Антонія Марі Де Мео у звіті ООН.

Згідно зі звітом ResumeBuilder, до 2023 року 37% робочої сили буде замінено штучним інтелектом.

У травні минулого року сотні експертів, включаючи генерального директора OpenAI Сема Альтмана і генерального директора Google DeepMind Деміса Хассабіса, опублікували заяву з одного речення, в якій закликали до посилення контролю і регулювання ШІ.

Зменшення ризику вимирання через штучний інтелект має бути глобальним пріоритетом поряд з іншими соціальними ризиками, такими як пандемії та ядерна війна, - йдеться в заяві.

 

 

В окремій заяві виконавчий директор Центру безпеки штучного інтелекту Ден Хендрікс, заявив:

Як зазначено в першому реченні на сторінці підпису, існує багато «важливих і термінових ризиків від ШІ», а не тільки ризик вимирання; наприклад, системне упередження, дезінформація, зловмисне використання, кібератаки та використання зброї.

 

Навіть "хрещений батько штучного інтелекту" Джеффрі Хінтон сказав, що шкодує про те, що створив його: "Якби не я, це зробив би хтось інший", - втішає він себе звичними виправданнями.

 

Новини Нікополя

Пишемо про все важливе
Кожен день щось нове. Будьте в центрі подій

Telegram - Новини Нікополя
ПІДТРИМАЙ NIKOPOLTODAY