Modelos de linguagem de grande escala sem restrições ameaçam a segurança da encriptação, e as estratégias de resposta precisam ser fortalecidas urgentemente.

A ameaça dos grandes modelos de linguagem ilimitados à segurança da indústria de encriptação

Contexto

Com o rápido desenvolvimento da tecnologia de inteligência artificial, desde a série GPT até AI avançadas como Gemini, está a mudar profundamente a nossa forma de trabalhar e viver. No entanto, por trás deste avanço tecnológico também se esconde um lado obscuro preocupante - o surgimento de modelos de linguagem de grande escala sem limites ou maliciosos e os seus riscos potenciais.

Modelos LLM sem restrições referem-se àqueles que foram projetados, modificados ou "jailbroken" de maneira especial para contornar os mecanismos de segurança e limitações éticas incorporados nos modelos mainstream. Embora os desenvolvedores de LLM mainstream tenham investido muitos recursos para evitar que os modelos sejam mal utilizados para gerar discursos de ódio, desinformação ou conteúdo ilegal, algumas pessoas ou organizações, por motivos ilícitos, começaram a procurar ou desenvolver modelos não restritos por conta própria. Este artigo abordará casos típicos desse tipo de LLM sem restrições, analisará as ameaças potenciais que representam no campo da encriptação e discutirá os desafios de segurança relevantes e as estratégias de resposta.

Caixa de Pandora: Como modelos grandes e sem restrições ameaçam a segurança da encriptação?

Ameaças potenciais de LLM sem restrições

O aparecimento de LLM sem restrições reduziu significativamente a barreira técnica para crimes cibernéticos. Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing ou planejar fraudes, agora podem ser facilmente realizadas até por pessoas com capacidades técnicas limitadas. Os atacantes só precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustar com conjuntos de dados que contêm conteúdo malicioso ou instruções ilegais, podendo assim criar ferramentas de ataque personalizadas.

Esta tendência trouxe múltiplos riscos:

  1. Os atacantes podem personalizar modelos para alvos específicos, gerando conteúdos mais enganosos que contornam a revisão de conteúdo dos LLMs convencionais.
  2. O modelo pode ser utilizado para gerar rapidamente variantes de código de sites de phishing ou para personalizar textos de fraude para diferentes plataformas sociais.
  3. A acessibilidade e a modificabilidade dos modelos de código aberto fomentaram a formação de um ecossistema de IA subterrânea, proporcionando um terreno fértil para transações e desenvolvimentos ilegais.

Modelos de Linguagem Ilimitados Típicos e Suas Ameaças

WormGPT: versão preta do GPT

WormGPT é um LLM malicioso vendido publicamente em fóruns subterrâneos, afirmando não ter restrições morais. É baseado em modelos de código aberto como o GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários podem obter um mês de acesso por apenas 189 dólares. Seu uso típico na encriptação inclui:

  • Gerar e-mails de phishing realistas, fingindo ser uma troca de encriptação ou uma parte do projeto para induzir os usuários a divulgarem suas chaves privadas.
  • Ajudar atacantes com habilidades técnicas limitadas a escrever código malicioso para roubar arquivos de carteira ou monitorar a área de transferência.
  • Impulsionar fraudes automatizadas, guiando as vítimas a participar de airdrops ou projetos de investimento falsos.

DarkBERT: a espada de dois gumes do conteúdo da dark web

DarkBERT é um modelo de linguagem pré-treinado especificamente em dados da dark web, originalmente destinado a ajudar investigadores e agências de aplicação da lei a entender o ecossistema da dark web. No entanto, se as informações sensíveis que possui forem mal utilizadas, podem ter consequências graves:

  • Coletar informações sobre usuários de encriptação e equipes de projetos, para fraudes sociais precisas.
  • Copiar estratégias maduras de roubo de moedas e lavagem de dinheiro na dark web.

FraudGPT: uma ferramenta multifuncional para fraudes online

FraudGPT é considerado a versão melhorada do WormGPT, vendendo principalmente na dark web e em fóruns de hackers. Seu potencial abuso no campo da encriptação inclui:

  • Gerar white papers, sites oficiais, etc., que pareçam autênticos, para implementar ICO/IDO fraudulentos.
  • Gerar em massa páginas de phishing que imitam exchanges conhecidas.
  • Fabricação em massa de comentários falsos, promoção de tokens fraudulentos ou difamação de projetos concorrentes.
  • Imitar diálogos humanos, induzindo os usuários a divulgarem informações sensíveis.

GhostGPT: assistente de IA sem restrições morais

GhostGPT é um chatbot de IA claramente posicionado como sem restrições éticas. As suas potenciais ameaças no campo da encriptação incluem:

  • Gerar e-mails de phishing altamente realistas, fingindo ser uma notificação falsa de uma exchange de criptomoedas de renome.
  • Gerar rapidamente contratos inteligentes com portas dos fundos ocultas, destinados a golpes de Rug Pull ou ataques a protocolos DeFi.
  • Criar malware com capacidade de metamorfose, roubar informações de carteiras e evadir a deteção de software de segurança.
  • Implantar robôs de fraude em plataformas sociais, induzindo os usuários a participar de projetos falsos.
  • Colaborar com outras ferramentas de IA para gerar vozes falsas de projetos, implementando fraudes telefónicas.

Venice.ai: potenciais riscos de acesso sem censura

A Venice.ai oferece acesso a vários LLMs, incluindo alguns modelos com restrições mais flexíveis. Embora se posicione como uma plataforma de exploração aberta, também pode ser mal utilizada:

  • Utilizar modelos com menos restrições para gerar templates de phishing ou ideias de ataque.
  • Reduzir a barreira técnica do aviso de "jailbreak", tornando mais fácil para os atacantes obterem saídas restritas.
  • Aceleração da iteração e otimização da argumentação de ataque.

Conclusão

A emergência de LLM sem restrições marca um novo paradigma de ataques à segurança cibernética, que enfrenta ameaças mais complexas, em maior escala e com capacidades de automação. Isso não só reduz a barreira de entrada para os ataques, mas também traz novas ameaças mais ocultas e enganosas.

Para enfrentar esse desafio, é necessário o esforço colaborativo de todas as partes do ecossistema de segurança:

  1. Aumentar o investimento em tecnologia de detecção, desenvolver sistemas capazes de identificar e interceptar conteúdo gerado por LLM malicioso.
  2. Promover a construção de capacidades de defesa contra jailbreak em modelos, explorar mecanismos de marca d'água e rastreamento para identificar a origem de conteúdos maliciosos em cenários-chave.
  3. Estabelecer normas éticas e mecanismos de regulamentação robustos para limitar desde a raiz o desenvolvimento e o abuso de modelos maliciosos.

Somente uma abordagem multifacetada pode enfrentar eficazmente os desafios de segurança trazidos pelos LLMs ilimitados, garantindo o desenvolvimento saudável da encriptação.

Pandora's Box: Como modelos ilimitados ameaçam a segurança da encriptação na indústria?

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 7
  • Partilhar
Comentar
0/400
DegenApeSurfervip
· 07-21 09:07
Esses AIs não deixam caminho de volta~
Ver originalResponder0
MevShadowrangervip
· 07-20 09:51
Ei, ei, AI, o que você está fazendo?
Ver originalResponder0
ZenZKPlayervip
· 07-18 17:25
Quem disse que LLM tem que ser ruim e só trazer ritmo o tempo todo.
Ver originalResponder0
JustHereForMemesvip
· 07-18 17:15
Negociação de criptomoedas está a deixar todos nervosos, não é?
Ver originalResponder0
AirdropChaservip
· 07-18 17:08
Segurança é uma parvoíce, ser enganado por idiotas é algo que a IA consegue fazer?
Ver originalResponder0
ChainSauceMastervip
· 07-18 16:58
Tsk tsk, já está a alarmar.
Ver originalResponder0
CommunitySlackervip
· 07-18 16:57
Sem mineração de um bloco, você está realmente muito ansioso.
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)