Неограниченные большие языковые модели угрожают безопасности шифрования в отрасли, стратегии противодействия необходимо срочно усилить

Угроза безопасности шифрования в индустрии больших языковых моделей без ограничений

Фон

С быстрым развитием технологий искусственного интеллекта, от серии GPT до таких продвинутых ИИ, как Gemini, происходит глубокое изменение нашего рабочего и жизненного уклада. Тем не менее, за этим техническим прогрессом также скрываются тревожные темные стороны - появление неограниченных или злонамеренных крупных языковых моделей и их потенциальные риски.

Неограниченные LLM — это языковые модели, которые были специально разработаны, модифицированы или "взломаны", чтобы обойти встроенные в основные модели механизмы безопасности и этические ограничения. Хотя разработчики основных LLM вкладывают значительные ресурсы в предотвращение злоупотребления моделями для генерации ненавистнических высказываний, ложной информации или незаконного контента, некоторые лица или организации в корыстных целях начинают искать или самостоятельно разрабатывать неограниченные модели. В данной статье будут рассмотрены типичные примеры таких неограниченных LLM, будет проанализирована их потенциальная угроза в области шифрования, а также обсуждены связанные с этим проблемы безопасности и стратегии реагирования.

Пандора: Как неограниченные большие модели угрожают безопасности шифрования?

Потенциальная угроза неограниченного LLM

Появление неограниченных LLM значительно снизило технический порог для сетевых преступлений. Задачи, которые ранее требовали профессиональных навыков, такие как написание вредоносного кода, создание фишинговых писем или планирование мошенничества, теперь могут легко выполнять даже люди с ограниченными техническими возможностями. Злоумышленникам достаточно получить веса и исходный код открытой модели, а затем с помощью набора данных, содержащего вредоносное содержание или незаконные команды, провести дообучение, чтобы создать индивидуализированные инструменты атаки.

Эта тенденция привела к множественным рискам:

  1. Злоумышленники могут настроить модели для конкретных целей, создавая более обманчивый контент, который обходит обычные проверки содержания LLM.
  2. Модель может быть использована для быстрого создания вариаций кода фишинговых сайтов или для настройки мошеннических текстов под разные социальные платформы.
  3. Доступность и изменяемость открытых моделей способствовали формированию подпольной экосистемы ИИ, создав благоприятные условия для незаконной торговли и разработки.

Типичные неограниченные LLM и их угрозы

WormGPT: черная версия GPT

WormGPT — это вредоносная LLM, продаваемая на подпольных форумах, которая утверждает, что не имеет никаких моральных ограничений. Она основана на открытых моделях, таких как GPT-J 6B, и обучена на большом объеме данных, связанных с вредоносным ПО. Пользователи могут получить месячную подписку всего за 189 долларов. Типичное злоупотребление в области шифрования включает:

  • Генерация реалистичных фишинговых писем, выдавая себя за биржу криптовалют или проект, чтобы заставить пользователей раскрыть свои приватные ключи.
  • Помощь злоумышленникам с ограниченными техническими возможностями в написании вредоносного кода для кражи файлов кошелька или мониторинга буфера обмена.
  • Управление автоматизированным мошенничеством, ведение жертв к участию в ложных аирдропах или инвестиционных проектах.

DarkBERT: двусторонний меч контента даркнета

DarkBERT — это языковая модель, специально предварительно обученная на данных темной сети, изначально предназначенная для помощи исследователям и правоохранительным органам в понимании экосистемы темной сети. Тем не менее, если чувствительная информация, которой она обладает, будет использована неправомерно, это может привести к серьезным последствиям:

  • Сбор информации о шифрование-пользователях и командах проектов для точного социального мошенничества.
  • Копирование зрелых стратегий кражи криптовалюты и отмывания денег в даркнете.

FraudGPT:многофункциональный инструмент для сетевого мошенничества

FraudGPT заявляет, что является улучшенной версией WormGPT, в основном продается в темной сети и на форумах хакеров. Его потенциальное злоупотребление в области шифрования включает:

  • Генерация поддельных белых книг, веб-сайтов и т.д. для проведения ложных ICO/IDO.
  • Массовое создание поддельных страниц для фишинга, имитирующих известные обменники.
  • Массовое производство ложных отзывов, продвижение мошеннических токенов или дискредитация конкурирующих проектов.
  • Имитация человеческого диалога с целью побудить пользователя раскрыть конфиденциальную информацию.

GhostGPT:AI помощник без моральных ограничений

GhostGPT - это AI-чат-бот, который явно позиционируется как не имеющий моральных ограничений. Его потенциальные угрозы в области шифрования включают:

  • Генерация高度 реалистичных фишинговых писем, маскирующихся под уведомления от крупных бирж.
  • Быстрое создание смарт-контрактов с скрытыми закладками для мошенничества Rug Pull или атак на DeFi-протоколы.
  • Создание вредоносного ПО с возможностью трансформации, кража информации о кошельках и уклонение от обнаружения защитным программным обеспечением.
  • Развертывание мошеннических роботов на социальных платформах, чтобы склонить пользователей участвовать в ложных проектах.
  • Используя другие инструменты ИИ для генерации поддельных голосов представителей проектов, осуществлять телефонные мошенничества.

Venice.ai:потенциальные риски доступа без проверки

Venice.ai предоставляет доступ к различным LLM, включая некоторые модели с ослабленными ограничениями. Хотя он позиционируется как платформа для открытого исследования, его также можно злоупотребить:

  • Используйте модели с меньшими ограничениями для создания шаблонов фишинга или идей для атак.
  • Снизить технический порог для сообщения о "джейлбрейке", что облегчит злоумышленникам доступ к ограниченному выводу.
  • Ускорение итеративной оптимизации атакующих сценариев.

Заключение

Появление неограниченного LLM знаменует собой новый парадигм атаки, с которым сталкивается кибербезопасность, который более сложен, масштабируем и автоматизирован. Это не только снижает порог для атак, но и приносит более скрытые и обманчивые угрозы нового типа.

Для решения этой задачи требуется совместные усилия всех сторон безопасной экосистемы:

  1. Увеличить инвестиции в технологии проверки, разработать системы, способные распознавать и блокировать злонамеренно сгенерированное содержание LLM.
  2. Продвижение строительства способности моделей к предотвращению взлома, исследование механизмов водяных знаков и отслеживания для отслеживания источников вредоносного контента в ключевых сценариях.
  3. Установить и完善 этические нормы и механизмы регулирования, чтобы ограничить на корню разработку и злоупотребление злонамеренными моделями.

Только многогранный подход может эффективно справиться с безопасностными вызовами, возникающими от неограниченных LLM, и обеспечить здоровое развитие шифрования индустрии.

Пандора: как неограниченные большие модели угрожают безопасности шифрования?

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 5
  • Поделиться
комментарий
0/400
ZenZKPlayervip
· 07-18 17:25
Кто сказал, что LLM обязательно плохие, все время создавая напряженность?
Посмотреть ОригиналОтветить0
JustHereForMemesvip
· 07-18 17:15
Торговля криптовалютой все в панике, да?
Посмотреть ОригиналОтветить0
AirdropChaservip
· 07-18 17:08
Безопасность - это ерунда, разве ИИ может разыгрывать людей как лохов?
Посмотреть ОригиналОтветить0
ChainSauceMastervip
· 07-18 16:58
Цок-цок, снова сеете панику.
Посмотреть ОригиналОтветить0
CommunitySlackervip
· 07-18 16:57
Без майнинга блока, ты слишком волнуешься, не так ли?
Посмотреть ОригиналОтветить0
  • Закрепить