Необмежені великі мовні моделі як загроза безпеці шифрування в галузі
Фон
З розвитком технологій штучного інтелекту, від серії GPT до таких розвинених AI, як Gemini, відбуваються глибокі зміни у наших способах роботи та життя. Однак за цим технологічним прогресом приховані також тривожні темні сторони - поява необмежених або зловмисних великих мовних моделей та їх потенційні ризики.
Безмежні LLM - це ті, що були спеціально розроблені, модифіковані або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча розробники основних LLM вклали значні ресурси, щоб запобігти зловживанню моделями для генерації ненависті, дезінформації або незаконного контенту, деякі особи або організації з незаконними намірами почали шукати або самостійно розробляти необмежені моделі. У цій статті буде розглянуто типові випадки таких безмежних LLM, проаналізовано їх потенційні загрози у сфері шифрування та обговорено відповідні виклики безпеки та стратегії реагування.
Потенційні загрози без обмежень LLM
З появою безмежних LLM значно знизився технічний поріг для кіберзлочинності. Завдання, для виконання яких раніше були необхідні професійні навички, такі як написання шкідливого коду, створення фішингових електронних листів або планування шахрайства, тепер можуть виконувати навіть люди з обмеженими технічними здібностями. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім, використовуючи набір даних із шкідливим контентом або незаконними інструкціями, провести доопрацювання, щоб створити індивідуалізовані інструменти атаки.
Ця тенденція призвела до багатьох ризиків:
Зловмисники можуть налаштувати модель на конкретну ціль, генеруючи більш оманливий контент, щоб обійти звичайну перевірку вмісту LLM.
Модель може бути використана для швидкого генерування кодових варіантів фішингових сайтів або для створення шахрайських текстів, адаптованих для різних соціальних платформ.
Доступність та можливість модифікації відкритих моделей сприяли формуванню підпільної AI екосистеми, ставши теплицею для незаконної торгівлі та розробки.
Типові необмежені LLM та їх загрози
WormGPT:чорна версія GPT
WormGPT є шкідливим LLM, який продається на підпільних форумах, стверджуючи, що не має жодних етичних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і навчений на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ всього за 189 доларів. Типове зловживання в сфері шифрування включає:
Генерація реалістичних фішинг-повідомлень, що маскуються під шифрування валютних бірж або проєктів, щоб спонукати користувачів розкрити свої приватні ключі.
Допомога з обмеженими технічними можливостями зловмисникам у написанні шкідливого коду для викрадення файлів гаманців або моніторингу буфера обміну.
Керування автоматизованим шахрайством, що спонукає жертв брати участь у фальшивих аеродропах або інвестиційних проектах.
DarkBERT: двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, спеціально попередньо навченою на даних з темної мережі, яка спочатку призначалася для допомоги дослідникам та правоохоронним органам у розумінні екосистеми темної мережі. Однак, якщо чутлива інформація, якою вона володіє, буде зловжито, це може призвести до серйозних наслідків:
Збирати інформацію про користувачів шифрування та команди проекту для точного соціального інженерного шахрайства.
Копіювання зрілих стратегій крадіжки монет і відмивання грошей у темній мережі.
FraudGPT:мультимедійний інструмент для мережевих шахрайств
FraudGPT заявляє, що є вдосконаленою версією WormGPT, яка в основному продається в темній мережі та на форумах хакерів. Його потенційне зловживання у сфері шифрування включає:
Генерувати реалістичні білі книги, веб-сайти тощо для проведення фальшивих ICO/IDO.
Масове створення фальшивих фішингових сторінок відомих бірж.
Масове виготовлення фальшивих відгуків, просування шахрайських токенів або дискредитація конкурентних проєктів.
GhostGPT є чітко визначеним AI-чат-роботом без моральних обмежень. Його потенційні загрози в галузі шифрування включають:
Генерація високоякісних фішингових електронних листів, що маскуються під повідомлення від основних бірж.
Швидке створення смарт-контрактів з прихованими бекдорами для схем Rug Pull або атак на DeFi протоколи.
Створення шкідливого програмного забезпечення з можливістю трансформації для крадіжки інформації з гаманців та ухилення від виявлення безпековим програмним забезпеченням.
Розгортання шахрайських ботів на соціальних платформах для спонукання користувачів брати участь у фальшивих проектах.
Співпрацювати з іншими AI інструментами для створення підроблених голосів представників проекту, здійснювати телефонні шахрайства.
Venice.ai:потенційні ризики безцензурного доступу
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з обмеженими умовами. Хоча позиціонується як платформа для відкритого дослідження, вона також може бути зловживана:
Використання моделей з меншими обмеженнями для генерації шаблонів фішингу або ідей атак.
Знизити технічний поріг для "джейлбрейку", що полегшує зловмисникам отримання обмеженого виходу.
Швидка ітераційна оптимізація атакуючої мови.
Висновок
Поява безмежних LLM позначає нову парадигму атак, з якою стикається кібербезпека, що є більш складною, масштабованою та автоматизованою. Це не тільки знижує поріг для атак, але й приносить нові приховані загрози, які є більш обманливими.
Відповідь на цей виклик вимагає спільних зусиль усіх сторін безпечної екосистеми:
Збільшити інвестиції в технології виявлення, розробити системи, здатні ідентифікувати та перехоплювати шкідливий контент, згенерований LLM.
Сприяти розвитку здатності моделей до запобігання зломам, досліджувати механізми водяних знаків та відстеження, щоб відслідковувати джерела шкідливого контенту в ключових сценаріях.
Створення ефективних етичних норм і механізмів регулювання, щоб з самого початку обмежити розробку та зловживання зловмисними моделями.
Тільки комплексний підхід може ефективно протистояти безмежним викликам безпеці, які створює LLM, і забезпечити здоровий розвиток шифрувальної галузі.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
12 лайків
Нагородити
12
7
Поділіться
Прокоментувати
0/400
DegenApeSurfer
· 07-21 09:07
Ці AI не залишають шляху назад~
Переглянути оригіналвідповісти на0
MevShadowranger
· 07-20 09:51
Гей, гей, AI, що ти там витворяєш?
Переглянути оригіналвідповісти на0
ZenZKPlayer
· 07-18 17:25
Хто сказав, що LLM обов'язково поганий, постійно розганяючи негатив?
Переглянути оригіналвідповісти на0
JustHereForMemes
· 07-18 17:15
Торгівля криптовалютою всі злякались, правда?
Переглянути оригіналвідповісти на0
AirdropChaser
· 07-18 17:08
Безпека як п, обдурювати людей, як лохів може зробити штучний інтелект?
Нескінченні великі мовні моделі загрожують безпеці шифрування в індустрії. Стратегії реагування терміново потрібно зміцнити.
Необмежені великі мовні моделі як загроза безпеці шифрування в галузі
Фон
З розвитком технологій штучного інтелекту, від серії GPT до таких розвинених AI, як Gemini, відбуваються глибокі зміни у наших способах роботи та життя. Однак за цим технологічним прогресом приховані також тривожні темні сторони - поява необмежених або зловмисних великих мовних моделей та їх потенційні ризики.
Безмежні LLM - це ті, що були спеціально розроблені, модифіковані або "зламані", щоб обійти вбудовані механізми безпеки та етичні обмеження основних моделей. Хоча розробники основних LLM вклали значні ресурси, щоб запобігти зловживанню моделями для генерації ненависті, дезінформації або незаконного контенту, деякі особи або організації з незаконними намірами почали шукати або самостійно розробляти необмежені моделі. У цій статті буде розглянуто типові випадки таких безмежних LLM, проаналізовано їх потенційні загрози у сфері шифрування та обговорено відповідні виклики безпеки та стратегії реагування.
Потенційні загрози без обмежень LLM
З появою безмежних LLM значно знизився технічний поріг для кіберзлочинності. Завдання, для виконання яких раніше були необхідні професійні навички, такі як написання шкідливого коду, створення фішингових електронних листів або планування шахрайства, тепер можуть виконувати навіть люди з обмеженими технічними здібностями. Зловмисникам потрібно лише отримати ваги та вихідний код відкритих моделей, а потім, використовуючи набір даних із шкідливим контентом або незаконними інструкціями, провести доопрацювання, щоб створити індивідуалізовані інструменти атаки.
Ця тенденція призвела до багатьох ризиків:
Типові необмежені LLM та їх загрози
WormGPT:чорна версія GPT
WormGPT є шкідливим LLM, який продається на підпільних форумах, стверджуючи, що не має жодних етичних обмежень. Він базується на відкритих моделях, таких як GPT-J 6B, і навчений на великій кількості даних, пов'язаних із шкідливим програмним забезпеченням. Користувачі можуть отримати місячний доступ всього за 189 доларів. Типове зловживання в сфері шифрування включає:
DarkBERT: двосічний меч контенту темної мережі
DarkBERT є мовною моделлю, спеціально попередньо навченою на даних з темної мережі, яка спочатку призначалася для допомоги дослідникам та правоохоронним органам у розумінні екосистеми темної мережі. Однак, якщо чутлива інформація, якою вона володіє, буде зловжито, це може призвести до серйозних наслідків:
FraudGPT:мультимедійний інструмент для мережевих шахрайств
FraudGPT заявляє, що є вдосконаленою версією WormGPT, яка в основному продається в темній мережі та на форумах хакерів. Його потенційне зловживання у сфері шифрування включає:
GhostGPT: AI помічник без моральних обмежень
GhostGPT є чітко визначеним AI-чат-роботом без моральних обмежень. Його потенційні загрози в галузі шифрування включають:
Venice.ai:потенційні ризики безцензурного доступу
Venice.ai надає доступ до різних LLM, включаючи деякі моделі з обмеженими умовами. Хоча позиціонується як платформа для відкритого дослідження, вона також може бути зловживана:
Висновок
Поява безмежних LLM позначає нову парадигму атак, з якою стикається кібербезпека, що є більш складною, масштабованою та автоматизованою. Це не тільки знижує поріг для атак, але й приносить нові приховані загрози, які є більш обманливими.
Відповідь на цей виклик вимагає спільних зусиль усіх сторін безпечної екосистеми:
Тільки комплексний підхід може ефективно протистояти безмежним викликам безпеці, які створює LLM, і забезпечити здоровий розвиток шифрувальної галузі.