Model bahasa besar tanpa batas mengancam keamanan industri enkripsi, strategi penanggulangan perlu diperkuat.

Ancaman model bahasa besar tanpa batas terhadap keamanan industri enkripsi

Latar Belakang

Dengan pesatnya perkembangan teknologi kecerdasan buatan, dari seri GPT hingga AI canggih seperti Gemini, cara kita bekerja dan hidup sedang mengalami perubahan yang mendalam. Namun, di balik kemajuan teknologi ini juga tersembunyi sisi gelap yang mengkhawatirkan - munculnya model bahasa besar yang tidak terbatas atau jahat dan risiko potensialnya.

LLM tanpa batas merujuk pada model bahasa yang dirancang, dimodifikasi, atau "di-jailbreak" secara khusus untuk menghindari mekanisme keamanan dan pembatasan etika yang tertanam dalam model arus utama. Meskipun pengembang LLM arus utama menginvestasikan banyak sumber daya untuk mencegah model disalahgunakan untuk menghasilkan ucapan kebencian, informasi palsu, atau konten ilegal, beberapa individu atau organisasi dengan tujuan ilegal mulai mencari atau mengembangkan model yang tidak terikat. Artikel ini akan mengeksplorasi kasus-kasus tipikal LLM tanpa batas ini, menganalisis potensi ancaman mereka di bidang enkripsi, dan membahas tantangan keamanan yang relevan serta strategi penanganannya.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

Potensi Ancaman LLM Tanpa Batas

Kemunculan LLM tanpa batas telah secara signifikan menurunkan ambang teknis untuk kejahatan siber. Tugas-tugas yang sebelumnya memerlukan keterampilan profesional, seperti menulis kode jahat, membuat email phishing, atau merencanakan penipuan, kini dapat dengan mudah dilakukan bahkan oleh orang-orang yang memiliki keterampilan teknis terbatas. Penyerang hanya perlu mendapatkan bobot dan kode sumber model sumber terbuka, lalu melakukan penyesuaian menggunakan dataset yang berisi konten jahat atau instruksi ilegal, sehingga dapat menciptakan alat serangan yang disesuaikan.

Tren ini membawa berbagai risiko:

  1. Penyerang dapat menyesuaikan model untuk target tertentu, menghasilkan konten yang lebih menipu, dan melewati pemeriksaan konten LLM konvensional.
  2. Model dapat digunakan untuk dengan cepat menghasilkan variasi kode situs phishing, atau untuk menyesuaikan naskah penipuan untuk berbagai platform sosial.
  3. Ketersediaan dan kemampuan untuk memodifikasi model open source mendorong terbentuknya ekosistem AI bawah tanah, menyediakan tempat subur untuk perdagangan dan pengembangan ilegal.

LLM Tanpa Batas yang Khas dan Ancaman yang Dihasilkannya

WormGPT: versi hitam GPT

WormGPT adalah LLM jahat yang dijual secara terbuka di forum bawah tanah, yang mengklaim tidak memiliki batasan etika. Ini didasarkan pada model sumber terbuka seperti GPT-J 6B dan dilatih pada sejumlah besar data yang terkait dengan perangkat lunak jahat. Pengguna hanya perlu membayar 189 dolar untuk memperoleh hak penggunaan selama sebulan. Penyalahgunaan tipikalnya di bidang enkripsi meliputi:

  • Menghasilkan email phishing yang realistis, berpura-pura menjadi bursa atau proyek cryptocurrency untuk mendorong pengguna mengungkapkan kunci pribadi.
  • Membantu penyerang dengan kemampuan teknis terbatas untuk menulis kode jahat yang mencuri file dompet atau memantau clipboard.
  • Menggerakkan penipuan otomatis, mengarahkan korban untuk berpartisipasi dalam airdrop atau proyek investasi palsu.

DarkBERT: pedang bermata dua untuk konten dark web

DarkBERT adalah model bahasa yang dilatih sebelumnya khusus pada data dark web, yang awalnya dimaksudkan untuk membantu peneliti dan lembaga penegak hukum memahami ekosistem dark web. Namun, informasi sensitif yang dikuasainya jika disalahgunakan, dapat mengakibatkan konsekuensi serius:

  • Mengumpulkan informasi pengguna enkripsi dan tim proyek, untuk penipuan rekayasa sosial yang tepat.
  • Menyalin strategi pencurian dan pencucian uang yang matang di dark web.

FraudGPT: Alat multifungsi untuk penipuan online

FraudGPT mengklaim sebagai versi yang ditingkatkan dari WormGPT, yang terutama dijual di dark web dan forum hacker. Potensi penyalahgunaan di bidang enkripsi termasuk:

  • Menghasilkan whitepaper, situs resmi, dll. yang menyerupai aslinya, digunakan untuk melaksanakan ICO/IDO palsu.
  • Menghasilkan halaman phishing yang meniru bursa terkenal secara massal.
  • Memproduksi komentar palsu secara besar-besaran, mempromosikan token penipuan atau menjatuhkan proyek pesaing.
  • Meniru percakapan manusia, mendorong pengguna untuk membocorkan informasi sensitif.

GhostGPT: asisten AI tanpa batasan etika

GhostGPT adalah chatbot AI yang secara jelas diposisikan sebagai tanpa batasan moral. Ancaman potensialnya di bidang enkripsi meliputi:

  • Menghasilkan email phishing yang sangat realistis, menyamar sebagai pemberitahuan palsu dari bursa utama.
  • Menghasilkan kontrak pintar dengan pintu belakang tersembunyi dengan cepat, untuk penipuan Rug Pull atau menyerang protokol DeFi.
  • Membuat malware yang memiliki kemampuan untuk berubah bentuk, mencuri informasi dompet, dan menghindari deteksi perangkat lunak keamanan.
  • Menerapkan bot penipuan di platform sosial, menggoda pengguna untuk berpartisipasi dalam proyek palsu.
  • Menggunakan alat AI lainnya untuk menghasilkan suara palsu dari pengembang proyek, melakukan penipuan melalui telepon.

Venice.ai: potensi risiko akses tanpa sensor

Venice.ai menyediakan akses ke berbagai LLM, termasuk beberapa model dengan pembatasan yang lebih longgar. Meskipun diposisikan sebagai platform eksplorasi terbuka, platform ini juga dapat disalahgunakan:

  • Menggunakan model dengan batasan yang lebih sedikit untuk menghasilkan template phishing atau ide serangan.
  • Menurunkan ambang teknis dari peringatan "jailbreak", sehingga penyerang lebih mudah mendapatkan output yang dibatasi.
  • Optimalisasi iterasi dari skrip serangan yang dipercepat.

Kesimpulan

Kemunculan LLM tanpa batas menandai bahwa keamanan siber menghadapi paradigma serangan baru yang lebih kompleks, berskala lebih besar, dan memiliki kemampuan otomatisasi. Ini tidak hanya menurunkan ambang serangan, tetapi juga membawa ancaman baru yang lebih tersembunyi dan lebih menipu.

Menghadapi tantangan ini memerlukan upaya kolaboratif dari semua pihak di ekosistem keamanan:

  1. Meningkatkan investasi dalam teknologi pengujian, mengembangkan sistem yang dapat mengenali dan拦截 konten yang dihasilkan oleh LLM jahat.
  2. Mendorong pembangunan kemampuan model untuk mencegah jailbreak, menjelajahi mekanisme watermark dan pelacakan, untuk melacak sumber konten berbahaya di skenario kunci.
  3. Membangun dan memperkuat norma etika serta mekanisme pengawasan, untuk secara fundamental membatasi pengembangan dan penyalahgunaan model jahat.

Hanya dengan pendekatan yang beragam, tantangan keamanan yang ditimbulkan oleh LLM yang tidak terbatas dapat diatasi secara efektif, memastikan perkembangan industri enkripsi yang sehat.

Kotak Pandora: Bagaimana model besar tanpa batas mengancam keamanan industri enkripsi?

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 7
  • Posting ulang
  • Bagikan
Komentar
0/400
DegenApeSurfervip
· 07-21 09:07
AI ini tidak memberikan jalan mundur~
Lihat AsliBalas0
MevShadowrangervip
· 07-20 09:51
Hei hei AI, kamu lagi ngapain sih?
Lihat AsliBalas0
ZenZKPlayervip
· 07-18 17:25
Siapa bilang LLM itu selalu buruk, terus menerus membawa ritme.
Lihat AsliBalas0
JustHereForMemesvip
· 07-18 17:15
Perdagangan Mata Uang Kripto sudah panik, kan?
Lihat AsliBalas0
AirdropChaservip
· 07-18 17:08
Keamanan apa, Dianggap Bodoh itu bisa dilakukan oleh AI?
Lihat AsliBalas0
ChainSauceMastervip
· 07-18 16:58
Tsk tsk, lagi-lagi menakut-nakuti.
Lihat AsliBalas0
CommunitySlackervip
· 07-18 16:57
Tanpa Tambang Blok juga terlalu panik, ya?
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)