adblock check

marieonegai

marieonegai 2 недели
У курсора ровно те же проблемы что и у всех остальных: на чем их тренинги то они и знают, чуть лучше только у перплексити, но ни одна модель не будет знать твой проект по-определению, нельзя знать то чего нет но появится через пол-часа.
По поводу 24 Гб vram их и сегодня мало для счастья но для работы и вполовину меньше хватит.
Модели с годами наоборот демонстрируют все больший интеллект при все меньшем размере, я к тому phi4 и упомянул! При трёх гигах модель общается на русском абсолютно естественно, как год назад могли только модели в разы более тяжёлые, а в три гига можно было только посовещаться как модель ловит известные слова и несёт несвязную чушь.

Да, путь собственного агента на RAG и Lora потернистее готового копайлот, но игра точно стоит свеч!

Короче давай деньги о.о
marieonegai 3 недели
А что такого умеет копайлот чего не может уметь локальная модель? Текстики сам правит?

Это я и сам сделаю, или агентом своим а вот чтобы он помнил хотя бы базовый стек на котором я пишу и новые версии либ использовал а не «на июль 23 года» это надо Lora.

LLM модель и через десять лет и при ста триллионах параметров не будет знать что ты писал последние полгода...

Квантованная phi-4 от Майков общается более чем адекватно и функции поддерживает а весит 3 гига.
А если у тебя 24гига vram то можно полноценного виртуального кодера себе натренить на моделях с 70 млрд параметров
marieonegai 3 недели
Copilot: Сегодня 6 июля и «вы израсходовали бесплатный лимит на месяц»...

Я прикинул что при 20$ в месяц 1000 долларов уйдет за пять лет использования и решил было что это выгоднее покупки видюхи для локального инференса, а сейчас я лучше потрачу 2000 на видюху чем этим жлобам…