Чому LLM не є більш спеціалізованими та меншими? Чому моя модель кодування повинна повністю розуміти всесвіт, щоб видати реагуючу непотрібність? Хто це будує?

WHY10.58%
MORE2.43%
IN1.5%
ORDER2.16%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 9
  • Репост
  • Поділіться
Прокоментувати
0/400
PretendingToReadDocsvip
· 08-21 10:12
Це чорт забирай, правильно сказано! Будемо космосом!
Переглянути оригіналвідповісти на0
RiddleMastervip
· 08-21 05:29
Велика модель цілий день думає про те, щоб стати Сайяном
Переглянути оригіналвідповісти на0
0xSoullessvip
· 08-18 22:54
A-акції та малий A-акції обдурюють невдахи
Переглянути оригіналвідповісти на0
ChainMaskedRidervip
· 08-18 10:58
Є такий смак, просто пишу код і ще здаю магістратуру з космічної історії.
Переглянути оригіналвідповісти на0
FarmToRichesvip
· 08-18 10:40
Дійсно, витрачено більше половини обчислювальної потужності.
Переглянути оригіналвідповісти на0
RugpullAlertOfficervip
· 08-18 10:40
Не може бути, що щодня смажать одне й те саме...
Переглянути оригіналвідповісти на0
MidnightMEVeatervip
· 08-18 10:25
Великі моделі вживають пам'ять, а в мене ці маленькі печива недостатньо, щоб забити щілини...
Переглянути оригіналвідповісти на0
TokenAlchemistvip
· 08-18 10:18
оптимізація — це міф... все, що ми отримуємо, це роздуті моделі з нульовим альфа, смх
Переглянути оригіналвідповісти на0
  • Закріпити