Чому LLM не є більш спеціалізованими та меншими? Чому моя модель кодування повинна повністю розуміти всесвіт, щоб видати реагуючу непотрібність? Хто це будує?
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
23 лайків
Нагородити
23
9
Репост
Поділіться
Прокоментувати
0/400
PretendingToReadDocs
· 08-21 10:12
Це чорт забирай, правильно сказано! Будемо космосом!
Переглянути оригіналвідповісти на0
RiddleMaster
· 08-21 05:29
Велика модель цілий день думає про те, щоб стати Сайяном
Переглянути оригіналвідповісти на0
0xSoulless
· 08-18 22:54
A-акції та малий A-акції обдурюють невдахи
Переглянути оригіналвідповісти на0
ChainMaskedRider
· 08-18 10:58
Є такий смак, просто пишу код і ще здаю магістратуру з космічної історії.
Переглянути оригіналвідповісти на0
FarmToRiches
· 08-18 10:40
Дійсно, витрачено більше половини обчислювальної потужності.
Переглянути оригіналвідповісти на0
RugpullAlertOfficer
· 08-18 10:40
Не може бути, що щодня смажать одне й те саме...
Переглянути оригіналвідповісти на0
MidnightMEVeater
· 08-18 10:25
Великі моделі вживають пам'ять, а в мене ці маленькі печива недостатньо, щоб забити щілини...
Переглянути оригіналвідповісти на0
TokenAlchemist
· 08-18 10:18
оптимізація — це міф... все, що ми отримуємо, це роздуті моделі з нульовим альфа, смх
Чому LLM не є більш спеціалізованими та меншими? Чому моя модель кодування повинна повністю розуміти всесвіт, щоб видати реагуючу непотрібність? Хто це будує?