Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
15 Suka
Hadiah
15
6
Posting ulang
Bagikan
Komentar
0/400
0xSoulless
· 25menit yang lalu
A-shares dan AI kecil sama-sama play people for suckers
Lihat AsliBalas0
ChainMaskedRider
· 12jam yang lalu
Ada rasanya, hanya menulis kode, dan juga ujian pascasarjana sejarah alam semesta.
Lihat AsliBalas0
FarmToRiches
· 12jam yang lalu
Memang telah membuang sebagian besar Daya Komputasi
Lihat AsliBalas0
RugpullAlertOfficer
· 12jam yang lalu
Tidak mungkin setiap hari mengulang hal yang sama..
Lihat AsliBalas0
MidnightMEVeater
· 12jam yang lalu
Model besar menghabiskan memori, kue kecil saya tidak cukup untuk mengisi celah gigi...
Lihat AsliBalas0
TokenAlchemist
· 13jam yang lalu
optimisasi adalah mitos... yang kita dapatkan hanyalah model yang membengkak dengan alpha nol smh
Mengapa LLM tidak lebih terfokus dan lebih kecil? Mengapa model pengkodean saya perlu sepenuhnya memahami alam semesta untuk menghasilkan reaksi yang tidak jelas? Siapa yang membangun ini?