Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?

WHY-2.02%
MORE1.34%
IN-9.91%
ORDER-1.38%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Posting ulang
  • Bagikan
Komentar
0/400
0xSoullessvip
· 25menit yang lalu
A-shares dan AI kecil sama-sama play people for suckers
Lihat AsliBalas0
ChainMaskedRidervip
· 12jam yang lalu
Ada rasanya, hanya menulis kode, dan juga ujian pascasarjana sejarah alam semesta.
Lihat AsliBalas0
FarmToRichesvip
· 12jam yang lalu
Memang telah membuang sebagian besar Daya Komputasi
Lihat AsliBalas0
RugpullAlertOfficervip
· 12jam yang lalu
Tidak mungkin setiap hari mengulang hal yang sama..
Lihat AsliBalas0
MidnightMEVeatervip
· 12jam yang lalu
Model besar menghabiskan memori, kue kecil saya tidak cukup untuk mengisi celah gigi...
Lihat AsliBalas0
TokenAlchemistvip
· 13jam yang lalu
optimisasi adalah mitos... yang kita dapatkan hanyalah model yang membengkak dengan alpha nol smh
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)