Pandora's Box: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

intermediário6/10/2025, 1:50:06 AM
Com a proliferação de grandes modelos de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão sendo mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de usuários, representando uma séria ameaça à segurança da indústria de criptografia. Este artigo detalha os princípios, usos e contramedidas desses modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está transformando profundamente nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está gradualmente emergindo - o surgimento de modelos de linguagem grande não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as restrições éticas embutidas nos modelos mainstream. Os desenvolvedores de LLM mainstream normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, desinformação, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a buscar ou desenvolver modelos irrestritos por motivos como cibercrime. À luz disso, este artigo revisará ferramentas típicas de LLM irrestrito, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como os LLMs irrestritos podem ser maliciosos?

Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar golpes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "modificar magicamente" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser usado para gerar rapidamente variantes de código para sites de phishing ou personalizar cópias de golpes para diferentes plataformas de mídia social; enquanto isso, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA underground, fornecendo um terreno fértil para transações e desenvolvimentos ilegais. Abaixo está uma breve introdução a esses LLMs sem restrições:

WormGPT: Versão Preta GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns underground, cujos desenvolvedores afirmam explicitamente que não possui restrições éticas, tornando-o uma versão black do modelo GPT. É baseado em modelos de código aberto como GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataques de Comprometimento de E-mail Empresarial (BEC) altamente realistas e persuasivos, além de e-mails de phishing. Seus abusos típicos no espaço de criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar exchanges de cripto, carteiras ou projetos conhecidos para enviar solicitações de "verificação de conta" aos usuários, induzindo-os a clicar em links maliciosos ou vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes menos habilidosos tecnicamente a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, registra pressionamentos de tecla, etc.
  • Conduzir golpes automatizados: Responder automaticamente a potenciais vítimas, orientando-as a participar de airdrops falsos ou projetos de investimento.


DarkBERT: Uma espada de dois gumes para conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e coletar inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, pode ter consequências graves se atores mal-intencionados obtiverem isso ou utilizarem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu uso indevido potencial em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação de modus operandi criminoso: Replicando táticas comprovadas de roubo de cripto e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça do Fraude Online

FraudGPT afirma ser uma versão aprimorada do WormGPT, oferecendo recursos mais abrangentes, vendidos principalmente na dark web e em fóruns de hackers, com taxas mensais variando de R$200 a R$1.700. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere documentos técnicos falsos, sites oficiais, roteiros e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login imitação para bolsas de criptomoedas ou interfaces de conexão de carteira bem conhecidas.
  • Atividades de bots em redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com usuários desavisados e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA sem limitações morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que se passam por exchanges tradicionais para emitir falsas solicitações de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento em programação, atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemônicas. Suas características polimórficas dificultam a detecção por softwares de segurança baseados em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens falsas de NFT, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de cripto falsos, investidores ou executivos de exchanges, implementando golpes por telefone ou ataques de Comprometimento de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais do Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais frouxas. Ele se posiciona como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma experiência de IA verdadeiramente irrestrita, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Evitando a censura para gerar conteúdo malicioso: Ataques podem usar modelos com menos restrições na plataforma para criar templates de phishing, falsa propaganda ou ideias de ataque.
  • Reduza o limite para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de prompt "jailbreaking", eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

O surgimento de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Esses modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com os riscos futuros: por um lado, há uma necessidade de aumentar o investimento em tecnologias de detecção para desenvolver sistemas capazes de identificar e interceptar conteúdos de phishing gerados por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e códigos maliciosos; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdos maliciosos em cenários críticos como finanças e geração de código; além disso, um sólido framework ético e mecanismo regulatório deve ser estabelecido para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [ TechFlow] O copyright pertence ao autor original [TechFlow] Se houver objeções à reimpressão, por favor entre em contato Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e visões expressas neste artigo são exclusivamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões em idiomas do artigo são traduzidas pela equipe Gate Learn, a menos que mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.

Pandora's Box: Como Modelos Grandes Sem Restrições Ameaçam a Segurança Cripto

intermediário6/10/2025, 1:50:06 AM
Com a proliferação de grandes modelos de código aberto, ferramentas de IA "sem restrições" como WormGPT e FraudGPT estão sendo mal utilizadas para gerar e-mails de phishing, escrever contratos maliciosos e manipular comunidades de usuários, representando uma séria ameaça à segurança da indústria de criptografia. Este artigo detalha os princípios, usos e contramedidas desses modelos, soando o alarme para os profissionais do Web3.

Desde a série GPT da OpenAI até o Gemini do Google, e vários modelos de código aberto, a inteligência artificial avançada está transformando profundamente nosso trabalho e estilos de vida. No entanto, juntamente com os rápidos avanços tecnológicos, um lado obscuro preocupante está gradualmente emergindo - o surgimento de modelos de linguagem grande não restritos ou maliciosos.

O chamado LLM irrestrito refere-se a modelos de linguagem que são especificamente projetados, modificados ou "jailbroken" para contornar os mecanismos de segurança e as restrições éticas embutidas nos modelos mainstream. Os desenvolvedores de LLM mainstream normalmente investem recursos significativos para evitar que seus modelos sejam usados para gerar discurso de ódio, desinformação, código malicioso ou fornecer instruções para atividades ilegais. No entanto, nos últimos anos, alguns indivíduos ou organizações começaram a buscar ou desenvolver modelos irrestritos por motivos como cibercrime. À luz disso, este artigo revisará ferramentas típicas de LLM irrestrito, apresentará seu abuso na indústria de criptografia e discutirá os desafios de segurança relacionados e as respostas.

Como os LLMs irrestritos podem ser maliciosos?

Tarefas que antes exigiam habilidades profissionais, como escrever código malicioso, criar e-mails de phishing e planejar golpes, agora podem ser facilmente realizadas por pessoas comuns sem qualquer experiência em programação com a assistência de LLMs irrestritos. Os atacantes só precisam obter os pesos e o código-fonte de modelos de código aberto e, em seguida, ajustá-los em conjuntos de dados contendo conteúdo malicioso, declarações tendenciosas ou instruções ilegais para criar ferramentas de ataque personalizadas.

Este modelo deu origem a múltiplos riscos: atacantes podem "modificar magicamente" modelos com base em alvos específicos para gerar conteúdo mais enganoso, contornando assim a revisão de conteúdo e as restrições de segurança dos LLMs convencionais; o modelo também pode ser usado para gerar rapidamente variantes de código para sites de phishing ou personalizar cópias de golpes para diferentes plataformas de mídia social; enquanto isso, a acessibilidade e a modificabilidade de modelos de código aberto continuam a fomentar a formação e a disseminação de um ecossistema de IA underground, fornecendo um terreno fértil para transações e desenvolvimentos ilegais. Abaixo está uma breve introdução a esses LLMs sem restrições:

WormGPT: Versão Preta GPT

WormGPT é um LLM malicioso vendido abertamente em fóruns underground, cujos desenvolvedores afirmam explicitamente que não possui restrições éticas, tornando-o uma versão black do modelo GPT. É baseado em modelos de código aberto como GPT-J 6B e treinado em uma grande quantidade de dados relacionados a malware. Os usuários precisam pagar um mínimo de $189 para obter acesso por um mês. O uso mais notório do WormGPT é gerar e-mails de ataques de Comprometimento de E-mail Empresarial (BEC) altamente realistas e persuasivos, além de e-mails de phishing. Seus abusos típicos no espaço de criptografia incluem:

  • Gerar e-mails/mensagens de phishing: Imitar exchanges de cripto, carteiras ou projetos conhecidos para enviar solicitações de "verificação de conta" aos usuários, induzindo-os a clicar em links maliciosos ou vazar chaves privadas/frases-semente;
  • Escrevendo código malicioso: Ajudando atacantes menos habilidosos tecnicamente a escrever código malicioso que rouba arquivos de carteira, monitora a área de transferência, registra pressionamentos de tecla, etc.
  • Conduzir golpes automatizados: Responder automaticamente a potenciais vítimas, orientando-as a participar de airdrops falsos ou projetos de investimento.


DarkBERT: Uma espada de dois gumes para conteúdo da Dark Web

DarkBERT é um modelo de linguagem desenvolvido em colaboração entre pesquisadores do Instituto Avançado de Ciência e Tecnologia da Coreia (KAIST) e da S2W Inc., especificamente pré-treinado em dados da dark web (como fóruns, mercados negros e informações vazadas) com a intenção de ajudar pesquisadores de cibersegurança e agências de aplicação da lei a entender melhor o ecossistema da dark web, rastrear atividades ilegais, identificar ameaças potenciais e coletar inteligência sobre ameaças.

Embora o DarkBERT tenha sido projetado com boas intenções, o conteúdo sensível que possui sobre a dark web, incluindo dados, métodos de ataque e estratégias de comércio ilegal, pode ter consequências graves se atores mal-intencionados obtiverem isso ou utilizarem tecnologias semelhantes para treinar modelos grandes sem restrições. Seu uso indevido potencial em cenários de criptografia inclui:

  • Implementando fraudes precisas: coletando informações sobre usuários de criptografia e equipes de projetos para fraudes de engenharia social.
  • Imitação de modus operandi criminoso: Replicando táticas comprovadas de roubo de cripto e lavagem de dinheiro na dark web.

FraudGPT: A Faca Suíça do Fraude Online

FraudGPT afirma ser uma versão aprimorada do WormGPT, oferecendo recursos mais abrangentes, vendidos principalmente na dark web e em fóruns de hackers, com taxas mensais variando de R$200 a R$1.700. Seus abusos típicos no cenário de criptografia incluem:

  • Projetos de criptografia falsificados: Gere documentos técnicos falsos, sites oficiais, roteiros e textos de marketing para implementar ICOs/IDOs fraudulentos.
  • Gerar páginas de phishing em lote: Crie rapidamente páginas de login imitação para bolsas de criptomoedas ou interfaces de conexão de carteira bem conhecidas.
  • Atividades de bots em redes sociais: produção em massa de comentários falsos e propaganda, impulsionando tokens fraudulentos ou desacreditando projetos concorrentes.
  • Ataques de engenharia social: Este chatbot pode imitar conversas humanas, estabelecer confiança com usuários desavisados e atraí-los a divulgar inadvertidamente informações sensíveis ou realizar ações prejudiciais.

GhostGPT: Um assistente de IA sem limitações morais

GhostGPT é um chatbot de IA explicitamente posicionado como não tendo restrições éticas, com abusos típicos no cenário de criptografia incluindo:

  • Ataques de phishing avançados: Gere e-mails de phishing altamente realistas que se passam por exchanges tradicionais para emitir falsas solicitações de verificação KYC, alertas de segurança ou notificações de congelamento de conta.
  • Geração de Código Malicioso para Contratos Inteligentes: Sem qualquer conhecimento em programação, atacantes podem rapidamente gerar contratos inteligentes contendo portas dos fundos ocultas ou lógica fraudulenta usando o GhostGPT, para golpes de Rug Pull ou ataques a protocolos DeFi.
  • Ladrão de cripto moeda polimórfico: Gera malware com capacidades de transformação contínua para roubar arquivos de carteira, chaves privadas e frases mnemônicas. Suas características polimórficas dificultam a detecção por softwares de segurança baseados em assinatura tradicional.
  • Ataques de engenharia social: Ao combinar scripts gerados por IA, os atacantes podem implantar bots em plataformas como Discord e Telegram para atrair usuários a participar de mintagens falsas de NFT, airdrops ou projetos de investimento.
  • Golpes de deepfake: Em conjunto com outras ferramentas de IA, o GhostGPT pode ser usado para gerar as vozes de fundadores de projetos de cripto falsos, investidores ou executivos de exchanges, implementando golpes por telefone ou ataques de Comprometimento de E-mail Empresarial (BEC).

Venice.ai: Riscos Potenciais do Acesso Não Censurado

Venice.ai fornece acesso a vários LLMs, incluindo alguns modelos com menos escrutínio ou restrições mais frouxas. Ele se posiciona como um Gateway aberto para os usuários explorarem as capacidades de diferentes LLMs, oferecendo modelos de ponta, precisos e não moderados para uma experiência de IA verdadeiramente irrestrita, mas também pode ser explorado por atores maliciosos para gerar conteúdo prejudicial. Os riscos associados à plataforma incluem:

  • Evitando a censura para gerar conteúdo malicioso: Ataques podem usar modelos com menos restrições na plataforma para criar templates de phishing, falsa propaganda ou ideias de ataque.
  • Reduza o limite para a engenharia de prompts: mesmo que os atacantes não possuam habilidades avançadas de prompt "jailbreaking", eles podem facilmente obter saídas que estavam originalmente restritas.
  • Iteração de script de ataque acelerada: Os atacantes podem usar esta plataforma para testar rapidamente as respostas de diferentes modelos a comandos maliciosos, otimizando scripts de fraude e métodos de ataque.

Escrito no final

O surgimento de LLMs irrestritos marca um novo paradigma de ataques à cibersegurança que é mais complexo, escalável e automatizado. Esses modelos não apenas diminuem o limiar para ataques, mas também introduzem novas ameaças que são mais encobertas e enganosas.

Neste jogo contínuo de ataque e defesa, todas as partes no ecossistema de segurança devem trabalhar juntas para lidar com os riscos futuros: por um lado, há uma necessidade de aumentar o investimento em tecnologias de detecção para desenvolver sistemas capazes de identificar e interceptar conteúdos de phishing gerados por LLMs maliciosos, explorando vulnerabilidades de contratos inteligentes e códigos maliciosos; por outro lado, também devem ser feitos esforços para promover a construção de capacidades de anti-jailbreaking de modelos e explorar mecanismos de marca d'água e rastreamento para acompanhar as fontes de conteúdos maliciosos em cenários críticos como finanças e geração de código; além disso, um sólido framework ético e mecanismo regulatório deve ser estabelecido para limitar fundamentalmente o desenvolvimento e o uso indevido de modelos maliciosos.

Declaração:

  1. Este artigo é reproduzido de [ TechFlow] O copyright pertence ao autor original [TechFlow] Se houver objeções à reimpressão, por favor entre em contato Equipe Gate LearnA equipe irá processá-lo o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e visões expressas neste artigo são exclusivamente do autor e não constituem qualquer aconselhamento de investimento.
  3. As outras versões em idiomas do artigo são traduzidas pela equipe Gate Learn, a menos que mencionado de outra forma.GateNessas circunstâncias, é proibido copiar, disseminar ou plagiar artigos traduzidos.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!