23:10 Як ШІ може вплинути на вибори дізналися експерти | |
За словами фахівців ENISA, європейці готуються ухвалити Закон про ШІ, але досі незрозуміло, як боротися з генеративними моделями і діпфейками. Агентство Євросоюзу з кібербезпеки ENISA (ETL) попередило, що нові потужні моделі штучного інтелекту (ШІ) можуть стати руйнівним чинником на виборах у ЄС у червні 2024 року. Про це 19 жовтня повідомляє загальноєвропейська новинна платформа Euractiv. "Довіра до виборчого процесу ЄС буде критично залежати від нашої здатності покладатися на кібербезпечні інфраструктури, а також від цілісності та доступності інформації. Тепер від нас залежить, чи застосуємо ми необхідні дії для досягнення цієї чутливої, але важливої мети для наших демократій", — заявив виконавчий директор ENISA Юхан Лепассаар. Як зазначають фахівці, моделі штучного інтелекту особливо актуальні для так званої соціальної інженерії, тобто психологічних маніпуляцій. Це відбувається завдяки здатності ШІ створювати текст, нібито написаний людиною, або достовірно схожі зображення та відео, які замінюють схожість однієї людини на іншу — діпфейки. У звіті ENISA зазначено, пише портал, що з моменту публічного випуску ChatGPT (практично з листопада 2022 року. — Ред.) штучний інтелект став основним драйвером інновацій в імітації текстів як законних джерел, клонуванні голосів та інтелектуальному аналізі даних за допомогою ШІ. "У такий спосіб зловмисники можуть використовувати їх для проведення великомасштабних кампаній із маніпулювання інформацією", — підкреслює агентство. Чат-боти на базі штучного інтелекту, як-от ChatGPT від OpenAI і Bard від Google, на думку експертів видання, також можуть піддаватися маніпуляціям із наборами даних, наприклад, щоб зіпсувати імідж бізнес- або політичному конкуренту. На початку весни цього року Euractiv повідомив, що інше агентство ЄС — Європол, що відповідає за правоохоронну діяльність, вказало на потенційне злочинне використання генеративних систем штучного інтелекту, таких як ChatGPT, для онлайн-шахрайства та інших кіберзлочинів. "Тенденція передбачає, що генеративний ШІ надає можливість суб'єктам загроз створювати складні та цілеспрямовані атаки з високою швидкістю і масштабом. Ми очікуємо більш цілеспрямованих атак соціальної інженерії із використанням технологій на основі ШІ в майбутньому", — підсумувало ENISA. Тим часом у ЄС завершується робота над Законом про штучний інтелект — першою у світі всеосяжною постановою в цій сфері. Однак те, як боротися з генеративним штучним інтелектом і діпфейками, все ще залишається відкритою дискусією, підкреслює Euractiv. "Планета загроз 2023 року" — що відомоСьогоднішнє попередження агентства ENISA є частиною їхнього щорічного звіту про стан поля загроз кібербезпеки під назвою "Планета загроз" про стан поля загроз кібербезпеки. У центрі уваги цього звіту фахівці агентства бачать можливі збої, пов'язані з чат-ботами з ШІ, такими як відомий ChatGPT, і будь-які форми маніпулювання інформацією за допомогою штучного інтелекту.При цьому, як зауважує Euractiv, нові моделі штучного інтелекту, для яких характерна підвищена потужність, можуть бути використані для зриву виборчих процесів не тільки в Європі. "У зв'язку з наближенням виборів у США і Великій Британії експерти попереджають про ризик того, що зображення або відео, створені ШІ, стануть вірусними, а також про пропагандистських ботів, які працюють на базі ШІ", — нагадує портал про статтю в Guardian. | |
|
Всього коментарів: 0 | |