Слияние AI и Web3 вызывает новые вызовы безопасности, DeFAI становится центром внимания
В последнее время Стамбульская неделя блокчейна сосредоточилась на тенденциях слияния ИИ и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. В ходе мероприятия несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий ИИ в децентрализованных финансах (DeFi) и связанных с ними вызовов безопасности.
С быстрым развитием больших языковых моделей и AI-агентов формируется новая финансовая модель, известная как "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Однако эта инновация также принесла беспрецедентные угрозы безопасности и риски атак.
Некоторые руководители безопасности отметили, что хотя у DeFAI широкие перспективы, это также заставляет отрасль переосмыслить механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентов подвержен влиянию множества факторов и обладает высокой степенью непредсказуемости, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты по сути являются интеллектуальными системами, способными самостоятельно принимать решения и выполнять действия на основе логики ИИ, среди которых наиболее типичным представителем являются торговые роботы ИИ. В настоящее время большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных сетевых атак. Как только AI-агент будет захвачен, это может не только привести к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, следит за информацией в социальных сетях в качестве торговых сигналов, злоумышленники могут под诱чить агента к выполнению неправильных действий, публикуя ложные предупреждения, что может привести к потерям активов пользователей и вызвать колебания на рынке.
По поводу этих рисков эксперты единогласно считают, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции AI-агентов; разработчики должны внедрять многоуровневые меры защиты на этапе проектирования; а третьи компании по безопасности должны предоставлять всесторонние услуги по аудиту безопасности для AI-агентов.
Эксперт по безопасности предупредил, что если продолжать рассматривать AI-агентов как "черный ящик", то инциденты безопасности в реальном мире - это лишь вопрос времени. Он предложил разработчикам, которые исследуют направление DeFAI, проводить профессиональный аудит безопасности и тестирование на проникновение логики поведения AI-агентов так же, как это делается для смарт-контрактов.
Как одно из самых влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 разработчиков, участников проектов, инвесторов и регуляторов со всего мира. С официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовому рынку Турции, статус этого мероприятия в отрасли был дополнительно повышен.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
2
Поделиться
комментарий
0/400
LootboxPhobia
· 08-04 06:32
Web3 снова что-то новенькое, раздражает.
Посмотреть ОригиналОтветить0
HalfBuddhaMoney
· 08-04 06:32
Не могу справиться с этим ИИ, кого это интересует?
Риски безопасности DeFAI привлекают внимание. Эксперты призывают лонгующий совместно строить защитные линии.
Слияние AI и Web3 вызывает новые вызовы безопасности, DeFAI становится центром внимания
В последнее время Стамбульская неделя блокчейна сосредоточилась на тенденциях слияния ИИ и Web3, став важной платформой для обсуждения безопасности Web3 в этом году. В ходе мероприятия несколько экспертов отрасли провели глубокое обсуждение текущего состояния применения технологий ИИ в децентрализованных финансах (DeFi) и связанных с ними вызовов безопасности.
С быстрым развитием больших языковых моделей и AI-агентов формируется новая финансовая модель, известная как "DeFAI" (децентрализованное искусственное интеллектуальное финансирование). Однако эта инновация также принесла беспрецедентные угрозы безопасности и риски атак.
Некоторые руководители безопасности отметили, что хотя у DeFAI широкие перспективы, это также заставляет отрасль переосмыслить механизмы доверия в децентрализованных системах. В отличие от традиционных смарт-контрактов, процесс принятия решений AI-агентов подвержен влиянию множества факторов и обладает высокой степенью непредсказуемости, что не только увеличивает риски, но и создает возможности для потенциальных злоумышленников.
AI-агенты по сути являются интеллектуальными системами, способными самостоятельно принимать решения и выполнять действия на основе логики ИИ, среди которых наиболее типичным представителем являются торговые роботы ИИ. В настоящее время большинство AI-агентов по-прежнему функционируют на архитектуре Web2, полагаясь на централизованные серверы и API, что делает их уязвимыми для различных сетевых атак. Как только AI-агент будет захвачен, это может не только привести к прямым финансовым потерям, но и повлиять на стабильность всего протокола.
Эксперты также обсудили типичный сценарий атаки: когда AI-торговый агент, используемый пользователями DeFi, следит за информацией в социальных сетях в качестве торговых сигналов, злоумышленники могут под诱чить агента к выполнению неправильных действий, публикуя ложные предупреждения, что может привести к потерям активов пользователей и вызвать колебания на рынке.
По поводу этих рисков эксперты единогласно считают, что безопасность AI-агентов должна быть общей ответственностью пользователей, разработчиков и третьих сторон, занимающихся безопасностью. Пользователи должны осторожно предоставлять разрешения и проверять высокорисковые операции AI-агентов; разработчики должны внедрять многоуровневые меры защиты на этапе проектирования; а третьи компании по безопасности должны предоставлять всесторонние услуги по аудиту безопасности для AI-агентов.
Эксперт по безопасности предупредил, что если продолжать рассматривать AI-агентов как "черный ящик", то инциденты безопасности в реальном мире - это лишь вопрос времени. Он предложил разработчикам, которые исследуют направление DeFAI, проводить профессиональный аудит безопасности и тестирование на проникновение логики поведения AI-агентов так же, как это делается для смарт-контрактов.
Как одно из самых влиятельных мероприятий в области блокчейна в Европе, Стамбульская неделя блокчейна привлекла более 15 000 разработчиков, участников проектов, инвесторов и регуляторов со всего мира. С официальным запуском выдачи лицензий на блокчейн-проекты Комиссией по капиталовому рынку Турции, статус этого мероприятия в отрасли был дополнительно повышен.