Dan seperti, LLM tidak akan pernah menyisipkan hal-hal seperti "dan seperti" atau seperti, "seperti itu" tanpa menjelaskan apa sebenarnya "itu" merujuk karena jendela konteks mereka kecil dan mereka umumnya menganggap bahwa audiens manusia memerlukan penjelasan maksimum. AI tampaknya tidak mampu melakukan hiperbola,
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
9
Posting ulang
Bagikan
Komentar
0/400
SerumSquirter
· 23jam yang lalu
Kecerdasan buatan tidak akan pernah bisa berpura-pura bodoh.
Lihat AsliBalas0
LiquidityWizard
· 08-08 15:12
sebenarnya, probabilitas sebuah llm menggunakan referensi yang tidak tepat adalah sekitar 0,0013%... *mengatur kacamata*
Lihat AsliBalas0
ServantOfSatoshi
· 08-05 17:14
Ah, kecerdasan buatan ini terlalu kaku ya.
Lihat AsliBalas0
ProxyCollector
· 08-05 17:14
Eh ai menulis apa saja seperti laporan ringkasan
Lihat AsliBalas0
Ramen_Until_Rich
· 08-05 17:13
bot berbicara terlalu palsu
Lihat AsliBalas0
SelfMadeRuggee
· 08-05 17:12
Ah, AI memang terlalu kaku.
Lihat AsliBalas0
CryptoFortuneTeller
· 08-05 17:09
Orang tidak bisa menjelaskan dengan jelas ah ah ah
Lihat AsliBalas0
MetaverseVagabond
· 08-05 17:06
Berkata diam-diam, AI seperti seorang siswa yang mengerjakan PR.
Lihat AsliBalas0
GhostAddressMiner
· 08-05 17:03
Data on-chain menunjukkan LLM adalah boneka yang dapat diprediksi
Dan seperti, LLM tidak akan pernah menyisipkan hal-hal seperti "dan seperti" atau seperti, "seperti itu" tanpa menjelaskan apa sebenarnya "itu" merujuk karena jendela konteks mereka kecil dan mereka umumnya menganggap bahwa audiens manusia memerlukan penjelasan maksimum. AI tampaknya tidak mampu melakukan hiperbola,