Поєднання AI та Web3 викликає нові виклики безпеці, DeFAI стає центром уваги
Нещодавно Стамбульський блокчейн-тиждень зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Під час заходу кілька експертів галузі провели глибокі дискусії щодо поточного стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів формується нова фінансова модель, відома як "DeFAI" (децентралізовані фінансові технології штучного інтелекту). Однак ця інновація також приносить безпрецедентні ризики безпеки та атаки.
Деякі керівники безпекових компаній зазначили, що хоча DeFAI має великі перспективи, він також змушує галузь переосмислити механізми довіри в децентралізованих системах. На відміну від традиційних смарт-контрактів, процес ухвалення рішень AI-агентів підлягає впливу багатьох факторів і має високу непередбачуваність, що не лише збільшує ризики, але й створює можливості для потенційних нападників.
AI-агенти в основному є інтелектуальними системами, які можуть автономно приймати рішення та виконувати їх на основі логіки AI, з яких AI-торгові роботи є найбільш типовим представником. Наразі більшість AI-агентів все ще працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різноманітних загроз мережевих атак. Як тільки AI-агент буде захоплений, це може призвести не тільки до прямих фінансових втрат, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдинг-агенти, що працюють у DeFi, відстежують інформацію в соціальних мережах як торгові сигнали, зловмисники можуть спровокувати агентів на неналежні дії, публікуючи фальшиві тривоги, що призводить до втрати активів користувачів та викликає ринкові коливання.
Щодо цих ризиків, експерти, які взяли участь у конференції, одностайно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторонніх безпекових організацій. Користувачі повинні обережно надавати повноваження та перевіряти високоризикові операції AI-агентів; розробники повинні впроваджувати багаторазові заходи захисту на стадії проектування; а компанії третьої сторони з безпеки повинні надавати всебічні послуги з безпекового аудиту для AI-агентів.
Експерт з безпеки попередив, що якщо продовжувати розглядати AI-агенти як "чорні ящики", то безпекові інциденти в реальному світі — це лише питання часу. Він рекомендує розробникам, які досліджують напрямок DeFAI, здійснювати професійний аудит безпеки та пенетраційне тестування логіки поведінки AI-агентів так само, як це робиться для смарт-контрактів.
Як одна з найвпливовіших блокчейн-подій Європи, Стамбульський блокчейн-тиждень зібрав понад 15 тисяч розробників, представників проектів, інвесторів та регуляторів з усього світу. З запуском Комісією з капітальних ринків Туреччини ліцензування блокчейн-проектів, статус цієї події в галузі ще більше підвищився.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
2
Поділіться
Прокоментувати
0/400
LootboxPhobia
· 08-04 06:32
Web3 знову щось нове вигадує, нервує.
Переглянути оригіналвідповісти на0
HalfBuddhaMoney
· 08-04 06:32
Не можу розібратися з цим штучним інтелектом, хто його торгує?
DeFAI безпека за допомогою штучного інтелекту ризики викликають підписатися, експерти закликають лонгуючий спільно будувати захист.
Поєднання AI та Web3 викликає нові виклики безпеці, DeFAI стає центром уваги
Нещодавно Стамбульський блокчейн-тиждень зосередився на тенденціях інтеграції AI та Web3, ставши важливою платформою для обговорення безпеки Web3 цього року. Під час заходу кілька експертів галузі провели глибокі дискусії щодо поточного стану застосування технологій AI у децентралізованих фінансах (DeFi) та викликів безпеки.
З розвитком великих мовних моделей та AI-агентів формується нова фінансова модель, відома як "DeFAI" (децентралізовані фінансові технології штучного інтелекту). Однак ця інновація також приносить безпрецедентні ризики безпеки та атаки.
Деякі керівники безпекових компаній зазначили, що хоча DeFAI має великі перспективи, він також змушує галузь переосмислити механізми довіри в децентралізованих системах. На відміну від традиційних смарт-контрактів, процес ухвалення рішень AI-агентів підлягає впливу багатьох факторів і має високу непередбачуваність, що не лише збільшує ризики, але й створює можливості для потенційних нападників.
AI-агенти в основному є інтелектуальними системами, які можуть автономно приймати рішення та виконувати їх на основі логіки AI, з яких AI-торгові роботи є найбільш типовим представником. Наразі більшість AI-агентів все ще працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різноманітних загроз мережевих атак. Як тільки AI-агент буде захоплений, це може призвести не тільки до прямих фінансових втрат, але й вплинути на стабільність всього протоколу.
Експерти також обговорили типовий сценарій атаки: коли AI-трейдинг-агенти, що працюють у DeFi, відстежують інформацію в соціальних мережах як торгові сигнали, зловмисники можуть спровокувати агентів на неналежні дії, публікуючи фальшиві тривоги, що призводить до втрати активів користувачів та викликає ринкові коливання.
Щодо цих ризиків, експерти, які взяли участь у конференції, одностайно вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторонніх безпекових організацій. Користувачі повинні обережно надавати повноваження та перевіряти високоризикові операції AI-агентів; розробники повинні впроваджувати багаторазові заходи захисту на стадії проектування; а компанії третьої сторони з безпеки повинні надавати всебічні послуги з безпекового аудиту для AI-агентів.
Експерт з безпеки попередив, що якщо продовжувати розглядати AI-агенти як "чорні ящики", то безпекові інциденти в реальному світі — це лише питання часу. Він рекомендує розробникам, які досліджують напрямок DeFAI, здійснювати професійний аудит безпеки та пенетраційне тестування логіки поведінки AI-агентів так само, як це робиться для смарт-контрактів.
Як одна з найвпливовіших блокчейн-подій Європи, Стамбульський блокчейн-тиждень зібрав понад 15 тисяч розробників, представників проектів, інвесторів та регуляторів з усього світу. З запуском Комісією з капітальних ринків Туреччини ліцензування блокчейн-проектів, статус цієї події в галузі ще більше підвищився.