دمج الذكاء الاصطناعي وWeb3 يثير تحديات جديدة في الأمان ، وDeFAI تصبح محور التركيز
مؤخراً، ركز أسبوع blockchain في إسطنبول على اتجاهات دمج الذكاء الاصطناعي وWeb3، ليصبح منصة مهمة لمناقشات أمان Web3 هذا العام. خلال الحدث، ناقش العديد من الخبراء في الصناعة الوضع الحالي لتطبيقات تكنولوجيا الذكاء الاصطناعي والتحديات الأمنية في التمويل اللامركزي (DeFi).
مع التطور السريع لنماذج اللغة الكبيرة ووكلاء الذكاء الاصطناعي، تتشكل تدريجياً نموذج مالي جديد يُعرف باسم "DeFAI" (الذكاء الاصطناعي المالي اللامركزي). ومع ذلك، فإن هذه الابتكار قد جلب أيضًا مخاطر أمنية وهجمات غير مسبوقة.
أشار أحد كبار المسؤولين في شركة أمنية إلى أن DeFAI، على الرغم من آفاقه الواسعة، فإنه يجبر الصناعة على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار من قبل وكلاء الذكاء الاصطناعي تتأثر بعوامل متعددة، مما يجعلها غير قابلة للتنبؤ بشكل كبير، وهذا لا يزيد من المخاطر فحسب، بل يخلق أيضًا فرصًا للمهاجمين المحتملين.
الوكيل الذكي المبني على الذكاء الاصطناعي هو في الأساس كيان قادر على اتخاذ قرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، حيث تُعتبر روبوتات التداول الذكية أبرز مثال على ذلك. حاليًا، لا يزال معظم الوكلاء الذكيين يعملون على بنية Web2، مما يعتمد على الخوادم المركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمختلف تهديدات الهجمات الإلكترونية. بمجرد اختطاف الوكيل الذكي، قد يؤدي ذلك ليس فقط إلى خسائر مالية مباشرة، ولكن قد يؤثر أيضًا على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم مستخدمو DeFi بتشغيل وكلاء تداول الذكاء الاصطناعي الذين يراقبون معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لإغراء الوكلاء بتنفيذ عمليات غير مناسبة، مما يؤدي إلى خسائر في أصول المستخدمين وتسبب تقلبات في السوق.
فيما يتعلق بهذه المخاطر، اتفق الخبراء الحاضرون على أن سلامة وكلاء الذكاء الاصطناعي يجب أن تكون مسؤولية مشتركة بين المستخدمين والمطورين والهيئات الأمنية الخارجية. يحتاج المستخدمون إلى توخي الحذر عند منح الأذونات ومراجعة العمليات عالية المخاطر التي يقوم بها وكيل الذكاء الاصطناعي؛ يجب على المطورين تنفيذ تدابير دفاعية متعددة منذ مرحلة التصميم؛ بينما يجب على شركات الأمان الخارجية تقديم خدمات تدقيق أمان شاملة لوكلاء الذكاء الاصطناعي.
حذر خبير أمان من أنه إذا استمر التعامل مع وكلاء الذكاء الاصطناعي باعتبارهم "صندوق أسود"، فإن وقوع حوادث أمنية في العالم الحقيقي هو مجرد مسألة وقت. واقترح على المطورين الذين يستكشفون اتجاه DeFAI أن يتعاملوا مع منطق سلوك وكلاء الذكاء الاصطناعي بنفس الطريقة التي يعاملون بها العقود الذكية، من خلال إجراء تدقيق أمني احترافي واختبارات اختراق.
كواحدة من أكثر الفعاليات تأثيرًا في مجال blockchain في أوروبا، اجتذبت أسبوع blockchain في اسطنبول أكثر من 15,000 مطور ومشروع ومستثمر ومنظم من جميع أنحاء العالم. مع بدء المجلس التنظيمي لسوق رأس المال في تركيا رسميًا في إصدار تراخيص مشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
DeFAI أمان المخاطر引 متابعة خبراء呼吁 أطول共筑防线
دمج الذكاء الاصطناعي وWeb3 يثير تحديات جديدة في الأمان ، وDeFAI تصبح محور التركيز
مؤخراً، ركز أسبوع blockchain في إسطنبول على اتجاهات دمج الذكاء الاصطناعي وWeb3، ليصبح منصة مهمة لمناقشات أمان Web3 هذا العام. خلال الحدث، ناقش العديد من الخبراء في الصناعة الوضع الحالي لتطبيقات تكنولوجيا الذكاء الاصطناعي والتحديات الأمنية في التمويل اللامركزي (DeFi).
مع التطور السريع لنماذج اللغة الكبيرة ووكلاء الذكاء الاصطناعي، تتشكل تدريجياً نموذج مالي جديد يُعرف باسم "DeFAI" (الذكاء الاصطناعي المالي اللامركزي). ومع ذلك، فإن هذه الابتكار قد جلب أيضًا مخاطر أمنية وهجمات غير مسبوقة.
أشار أحد كبار المسؤولين في شركة أمنية إلى أن DeFAI، على الرغم من آفاقه الواسعة، فإنه يجبر الصناعة على إعادة تقييم آليات الثقة في الأنظمة اللامركزية. على عكس العقود الذكية التقليدية، فإن عملية اتخاذ القرار من قبل وكلاء الذكاء الاصطناعي تتأثر بعوامل متعددة، مما يجعلها غير قابلة للتنبؤ بشكل كبير، وهذا لا يزيد من المخاطر فحسب، بل يخلق أيضًا فرصًا للمهاجمين المحتملين.
الوكيل الذكي المبني على الذكاء الاصطناعي هو في الأساس كيان قادر على اتخاذ قرارات وتنفيذها بشكل مستقل بناءً على منطق الذكاء الاصطناعي، حيث تُعتبر روبوتات التداول الذكية أبرز مثال على ذلك. حاليًا، لا يزال معظم الوكلاء الذكيين يعملون على بنية Web2، مما يعتمد على الخوادم المركزية وواجهات برمجة التطبيقات، مما يجعلها عرضة لمختلف تهديدات الهجمات الإلكترونية. بمجرد اختطاف الوكيل الذكي، قد يؤدي ذلك ليس فقط إلى خسائر مالية مباشرة، ولكن قد يؤثر أيضًا على استقرار البروتوكول بأكمله.
ناقش الخبراء أيضًا سيناريو هجوم نموذجي: عندما يقوم مستخدمو DeFi بتشغيل وكلاء تداول الذكاء الاصطناعي الذين يراقبون معلومات وسائل التواصل الاجتماعي كإشارات تداول، قد يقوم المهاجمون بنشر إنذارات كاذبة لإغراء الوكلاء بتنفيذ عمليات غير مناسبة، مما يؤدي إلى خسائر في أصول المستخدمين وتسبب تقلبات في السوق.
فيما يتعلق بهذه المخاطر، اتفق الخبراء الحاضرون على أن سلامة وكلاء الذكاء الاصطناعي يجب أن تكون مسؤولية مشتركة بين المستخدمين والمطورين والهيئات الأمنية الخارجية. يحتاج المستخدمون إلى توخي الحذر عند منح الأذونات ومراجعة العمليات عالية المخاطر التي يقوم بها وكيل الذكاء الاصطناعي؛ يجب على المطورين تنفيذ تدابير دفاعية متعددة منذ مرحلة التصميم؛ بينما يجب على شركات الأمان الخارجية تقديم خدمات تدقيق أمان شاملة لوكلاء الذكاء الاصطناعي.
حذر خبير أمان من أنه إذا استمر التعامل مع وكلاء الذكاء الاصطناعي باعتبارهم "صندوق أسود"، فإن وقوع حوادث أمنية في العالم الحقيقي هو مجرد مسألة وقت. واقترح على المطورين الذين يستكشفون اتجاه DeFAI أن يتعاملوا مع منطق سلوك وكلاء الذكاء الاصطناعي بنفس الطريقة التي يعاملون بها العقود الذكية، من خلال إجراء تدقيق أمني احترافي واختبارات اختراق.
كواحدة من أكثر الفعاليات تأثيرًا في مجال blockchain في أوروبا، اجتذبت أسبوع blockchain في اسطنبول أكثر من 15,000 مطور ومشروع ومستثمر ومنظم من جميع أنحاء العالم. مع بدء المجلس التنظيمي لسوق رأس المال في تركيا رسميًا في إصدار تراخيص مشاريع blockchain، تم تعزيز مكانة هذا الحدث في الصناعة.