phone вибачте за незручності mailМісячний календар
menu

12:46
Штучний інтелект колишній голова Google порівняв з ядерною зброєю
Колишній генеральний директор Google Ерік Шмідт порівняв штучний інтелект (ШІ) з ядерною зброєю і закликав до режиму стримування, подібного до взаємно гарантованого знищення, яке утримує наймогутніші країни світу від знищення одна одної.

Шмідт говорив про небезпеку штучного інтелекту на Форумі з безпеки в Аспені 22 липня під час дискусії про національну безпеку та ШІ. Відповідаючи на запитання щодо цінності моралі в технологіях, Шмідт пояснив, що він сам був наївний щодо сили інформації у перші дні існування Google. Потім він закликав до того, щоб технології краще відповідали етиці та моралі людей, яким вони служать, і провів дивне порівняння між штучним інтелектом та ядерною зброєю.

Шмідт говорив про найближче майбутнє, в якому Китаю і США необхідно укласти договір про штучний інтелект. «У 50-х і 60-х роках ми врешті-решт зробили світ, в якому існувало правило «жодних несподіванок» щодо ядерних випробувань, і в результаті вони були заборонені», – сказав Шмідт. «Це приклад балансу довіри або відсутності довіри, це правило «ніяких сюрпризів». Я дуже стурбований тим, що думка США про Китай як про корумпований, комуністичний або якийсь ще, і думка Китаю про Америку як про невдаху… дозволить людям сказати: «Боже мій, вони щось замислюють», і тоді почнеться щось незрозуміле…».

ШІ та машинне навчання – це вражаюча технологія, яку часто неправильно розуміють. Він, в основному, не такий розумний, як люди думають. Він може створювати витвори мистецтва на рівні шедеврів, перемагати людей у ​​Starcraft II та здійснювати елементарні телефонні дзвінки для користувачів. Однак спроби змусити його виконувати складніші завдання, такі як керування автомобілем великим містом, не увінчалися успіхом.

Шмідт говорить про уявне недалеке майбутнє, в якому і Китай, і США будуть стурбовані проблемами безпеки, що змусить їх укласти своєрідний договір про стримування ШІ. Він нагадав про 1950 та -60 роки, коли дипломатія розробила низку заходів контролю навколо найсмертоноснішої зброї на планеті. Але для того, щоб мир прийшов до укладення Договору про заборону ядерних випробувань, SALT II та інших знакових законодавчих актів, знадобилося десятиліття ядерних вибухів і, що особливо важливо, знищення Хіросіми та Нагасакі.

Два японські міста, зруйновані Америкою наприкінці Другої світової війни, забрали життя десятків тисяч людей і довели світові вічний жах ядерної зброї. Потім уряди росії та Китаю поспішили придбати зброю. Те, як ми живемо з можливістю того, що ця зброя буде використана, — це так зване взаємне гарантоване знищення (MAD), теорія стримування, яка гарантує, що якщо одна країна запустить ядерну зброю, то, можливо, це зробить будь-яка інша країна. Ми не використовуємо найруйнівнішу зброю на планеті через можливість того, що це знищить принаймні цивілізацію по всьому світу.

Попри барвисті коментарі Шмідта, ми не хочемо і не потребуємо MAD для ШІ. По-перше, ШІ ще не довів своєї руйнівної сили в порівнянні з ядерною зброєю. Але люди, які стоять при владі, бояться цієї нової технології, і, як правило, через неправильні причини. Люди навіть пропонували передати контроль над ядерною зброєю штучному інтелекту, вважаючи, що він буде кращим арбітром у його застосуванні, ніж людина.

Проблема зі штучним інтелектом не в тому, що він має потенційно руйнівну силу ядерної зброї. Річ у тому, що штучний інтелект хороший настільки, наскільки хороші люди, які його розробили, і що він несе цінності своїх творців. ШІ страждає від класичної проблеми «сміття на вході, сміття на виході»: расистські алгоритми створюють расистських роботів, весь ШІ несе у собі упередження своїх творців.

Деміс Хасабіс – генеральний директор компанії DeepMind, яка навчила ШІ, який перемагає гравців Starcraft II, – схоже, розуміє це краще, ніж Шмідт. У липневому інтерв’ю в подкасті Лекса Фрідмана Фрідман запитав Хасабіса, як можна контролювати таку потужну технологію, як ШІ, і як сам Хасабіс може уникнути розбещення цією силою.

Відповідь Хасабіса стосується його самого. «Штучний інтелект – це надто велика ідея», – сказав він. «Важливо, хто створює ШІ, з яких культур вони походять і які у них цінності. Системи ШІ навчатимуться самі… але в системі залишиться відбиток культури та цінностей авторів цієї системи».

Штучний інтелект – це відображення свого автора. Він не може зрівняти місто із землею вибухом потужністю 1,2 мегатонни. Якщо тільки людина не навчить його цього.
Категорія: Цікаві поради | Переглядів: 303 | Додав: adminA | Теги: ядерна зброя, голова Google, штучний інтелект | Рейтинг: 5.0/1
Всього коментарів: 0
Додавати коментарі можуть лише зареєстровані користувачі.
[ Реєстрація | Вхід ]