Pourquoi les LLM ne sont-ils pas plus spécialisés et plus petits ? Pourquoi mon modèle de codage doit-il comprendre l'univers entier pour produire du code réactif ? Qui construit cela ?

WHY1.45%
MORE1.33%
IN5.77%
ORDER-1.25%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 9
  • Reposter
  • Partager
Commentaire
0/400
PretendingToReadDocsvip
· Il y a 56m
C'est tellement vrai, c'est incroyable d'être dans l'univers.
Voir l'originalRépondre0
RiddleMastervip
· Il y a 5h
Le grand modèle pense toute la journée à devenir un Saiyan.
Voir l'originalRépondre0
0xSoullessvip
· 08-18 22:54
Actions A et petites actions A se font prendre pour des cons
Voir l'originalRépondre0
ChainMaskedRidervip
· 08-18 10:58
C'est juste écrire du code, et passer l'examen sur l'histoire de l'univers.
Voir l'originalRépondre0
FarmToRichesvip
· 08-18 10:40
Il a effectivement gaspillé plus de la moitié de la puissance de calcul.
Voir l'originalRépondre0
RugpullAlertOfficervip
· 08-18 10:40
Ce n'est pas possible, on ne va pas toujours réchauffer la même chose.
Voir l'originalRépondre0
MidnightMEVeatervip
· 08-18 10:25
Les grands modèles consomment beaucoup de mémoire, mes petits biscuits ne suffisent pas à combler les espaces...
Voir l'originalRépondre0
TokenAlchemistvip
· 08-18 10:18
l'optimisation est un mythe... tout ce que nous obtenons ce sont des modèles gonflés avec zéro alpha smh
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)