Неограниченные модели искусственного интеллекта: новые угрозы для шифрования индустрии
С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, они глубоко меняют наши способы работы и жизни. Однако за этим технологическим прогрессом скрываются и потенциальные опасности — появление неограниченных или злонамеренных больших языковых моделей (LLM).
Без限制 LLM — это языковые модели, которые были специально разработаны или изменены, чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Несмотря на то, что разработчики основных LLM инвестируют значительные ресурсы в предотвращение злоупотреблений моделями, некоторые лица или организации начали искать или разрабатывать модели без ограничений для незаконных целей. В данной статье будут рассмотрены потенциальные способы злоупотребления такими инструментами без ограничений LLM в сфере шифрования, а также связанные с этим вызовы безопасности и стратегии их преодоления.
Потенциальные угрозы неограниченного LLM
С помощью неограниченного LLM даже люди, не обладающие профессиональными навыками, могут легко выполнять сложные задачи, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д. Нападающим достаточно получить веса и исходный код открытой модели, а затем использовать набор данных, содержащий вредоносный контент или незаконные инструкции, для дообучения, чтобы создать индивидуализированные инструменты атаки.
Эта тенденция принесла множество рисков:
Атакующий может настроить модель в зависимости от конкретной цели, чтобы генерировать более обманчивый контент, обходя обычную проверку содержимого LLM.
Модель может быть использована для быстрого создания вариантов кода фишинговых сайтов или для адаптации мошеннических текстов под разные платформы.
Доступность открытых моделей способствовала формированию подпольной экосистемы AI, создав условия для незаконной торговли и разработки.
Типичные неограниченные LLM и их злоупотребление в сфере шифрования
WormGPT:черная версия GPT
WormGPT является вредоносным LLM, который продается на подпольных форумах и утверждает, что не имеет моральных ограничений. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом количестве данных, связанных с вредоносным ПО. В области шифрования WormGPT может быть неправомерно использован для:
Генерация поддельных фишинговых писем, выдавая себя за биржу или проект, отправляющих запросы на проверку аккаунта.
Помощь менее опытным злоумышленникам в написании вредоносного кода для кражи файлов кошелька или мониторинга буфера обмена.
Драйв автоматизированного мошенничества, вовлечение жертв в ложные аирдропы или инвестиционные проекты.
DarkBERT: двуострый меч контента темной сети
DarkBERT — это модель, предварительно обученная на данных из темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Однако, если она будет использована злоумышленниками, это может привести к:
Реализация точного мошенничества, сбор информации о пользователях шифрования и командах проектов для социальной инженерии.
Копировать зрелые стратегии кражи криптовалюты и отмывания денег в даркнете.
FraudGPT:многофункциональный инструмент для интернет-мошенничества
FraudGPT является усовершенствованной версией WormGPT, обладая более широкими функциями. В области шифрования его можно использовать для:
Поддельные шифрование проекты, создание реалистичных белых книг, веб-сайтов и маркетинговых текстов для ложных ICO/IDO.
Массовая генерация фишинговых страниц, имитирующих интерфейс входа известных бирж.
Проведение кампаний в социальных сетях для продвижения мошеннических токенов или дискредитации конкурирующих проектов.
Проведение социальной инженерии, установление доверия с пользователями и побуждение к раскрытию чувствительной информации.
GhostGPT:AI помощник без моральных ограничений
GhostGPT является чётко определённым AI-чат-ботом без моральных ограничений. В области шифрования он может быть злоупотреблён для:
Запускать высококлассные фишинг-атаки, генерируя мошеннические письма с высокой степенью реалистичности.
Генерация кода смарт-контракта с скрытой задней дверью для схемы Rug Pull или атаки на DeFi-протоколы.
Создание криптовалютного вора с возможностью трансформации, который трудно обнаружить традиционным программным обеспечением безопасности.
Используйте сгенерированные AI сценарии для развертывания мошеннических ботов в социальных сетях.
В сотрудничестве с другими инструментами ИИ создавать поддельные голоса основателей проектов или руководителей бирж для осуществления телефонных мошенничеств.
Venice.ai: потенциальные риски доступа без цензуры
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей цензурой. Хотя он позиционируется как открытая платформа для исследования возможностей ИИ, он также может быть использован неправомерно для:
Обходите цензуру для создания вредоносного контента, такого как фишинговые шаблоны или ложная реклама.
Снизить порог для атаки, чтобы злоумышленникам было проще получать изначально ограниченные выходные данные.
Ускорьте итерацию сценариев атак, быстро тестируйте и оптимизируйте мошеннические скрипты.
Стратегия реагирования
Появление неограниченных LLM обозначает, что кибербезопасность сталкивается с новыми угрозами, которые становятся более сложными, масштабируемыми и автоматизированными. Для решения этих задач сторонам экосистемы безопасности необходимо работать совместно:
Увеличить инвестиции в технологии проверки, разработать системы, способные распознавать и блокировать контент, сгенерированный злонамеренными LLM.
Повышение устойчивости модели к взлому, исследование механизмов водяных знаков и отслеживания, чтобы отслеживать источники вредоносного контента.
Создание и совершенствование этических норм и регулирующих механизмов для ограничения разработки и злоупотребления злонамеренными моделями с самого начала.
Только через многостороннее сотрудничество и постоянное повышение защитных способностей можно защитить безопасность шифрования индустрии в этой постоянно эскалирующейся игре атаки и защиты.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
15 Лайков
Награда
15
6
Поделиться
комментарий
0/400
NotSatoshi
· 08-01 04:20
Чем лучше инструменты, тем хуже плохие люди.
Посмотреть ОригиналОтветить0
ZkSnarker
· 07-30 07:39
представьте, если эти модели ИИ научатся zk-доказательствам... мы действительно ngmi
Посмотреть ОригиналОтветить0
GateUser-40edb63b
· 07-29 08:04
AI мошенничество слишком абсурдно 8
Посмотреть ОригиналОтветить0
StablecoinAnxiety
· 07-29 07:43
Искусственных мошенников становится все больше, это вызывает панические настроения.
Посмотреть ОригиналОтветить0
ser_ngmi
· 07-29 07:39
Искусственный интеллект молота — это обманщики.
Посмотреть ОригиналОтветить0
SandwichDetector
· 07-29 07:39
Зачем такие вычурные мошенники, лучше бы просто использовали зажим.
Неограниченные AI-модели: новые возникающие угрозы безопасности в шифровании.
Неограниченные модели искусственного интеллекта: новые угрозы для шифрования индустрии
С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых моделей, как Gemini, они глубоко меняют наши способы работы и жизни. Однако за этим технологическим прогрессом скрываются и потенциальные опасности — появление неограниченных или злонамеренных больших языковых моделей (LLM).
Без限制 LLM — это языковые модели, которые были специально разработаны или изменены, чтобы обойти встроенные механизмы безопасности и этические ограничения основных моделей. Несмотря на то, что разработчики основных LLM инвестируют значительные ресурсы в предотвращение злоупотреблений моделями, некоторые лица или организации начали искать или разрабатывать модели без ограничений для незаконных целей. В данной статье будут рассмотрены потенциальные способы злоупотребления такими инструментами без ограничений LLM в сфере шифрования, а также связанные с этим вызовы безопасности и стратегии их преодоления.
Потенциальные угрозы неограниченного LLM
С помощью неограниченного LLM даже люди, не обладающие профессиональными навыками, могут легко выполнять сложные задачи, такие как написание вредоносного кода, создание фишинговых писем, планирование мошенничества и т. д. Нападающим достаточно получить веса и исходный код открытой модели, а затем использовать набор данных, содержащий вредоносный контент или незаконные инструкции, для дообучения, чтобы создать индивидуализированные инструменты атаки.
Эта тенденция принесла множество рисков:
Типичные неограниченные LLM и их злоупотребление в сфере шифрования
WormGPT:черная версия GPT
WormGPT является вредоносным LLM, который продается на подпольных форумах и утверждает, что не имеет моральных ограничений. Он основан на открытых моделях, таких как GPT-J 6B, и обучен на большом количестве данных, связанных с вредоносным ПО. В области шифрования WormGPT может быть неправомерно использован для:
DarkBERT: двуострый меч контента темной сети
DarkBERT — это модель, предварительно обученная на данных из темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Однако, если она будет использована злоумышленниками, это может привести к:
FraudGPT:многофункциональный инструмент для интернет-мошенничества
FraudGPT является усовершенствованной версией WormGPT, обладая более широкими функциями. В области шифрования его можно использовать для:
GhostGPT:AI помощник без моральных ограничений
GhostGPT является чётко определённым AI-чат-ботом без моральных ограничений. В области шифрования он может быть злоупотреблён для:
Venice.ai: потенциальные риски доступа без цензуры
Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с меньшей цензурой. Хотя он позиционируется как открытая платформа для исследования возможностей ИИ, он также может быть использован неправомерно для:
Стратегия реагирования
Появление неограниченных LLM обозначает, что кибербезопасность сталкивается с новыми угрозами, которые становятся более сложными, масштабируемыми и автоматизированными. Для решения этих задач сторонам экосистемы безопасности необходимо работать совместно:
Только через многостороннее сотрудничество и постоянное повышение защитных способностей можно защитить безопасность шифрования индустрии в этой постоянно эскалирующейся игре атаки и защиты.