[deleted]

  • Возможно, стоит посмотреть на спец ресурсах в интернете, а не спрашивать у рандомной гопоты. Каждая иишка пиздит и делает ошибки, это не всезнающее существо

    Шутка в том, что это ИИ-шку даже не попытались сделать мало-мальски рабочей и удобной в использовании ))

    Пиздит каждая, но гигачад действительно тупой. Хотя что ожидать от Сбера, да и от Яндекса тоже — у них просто нет таких ресурсов, чтобы обучать нейронки до уровня зарубежных корпораций

    [deleted]

  • Ну ты удивил конечно, у сбера все продукты говно по дефолту. Их максимум - собирать комиссии за переводы, тут еще худо-бедно справляются.

    Вообще зажрались твари. Тут нужда была перевести миллион сестре. Сбер влупил комиссию 10 тысяч со сбер праймом. Плюнул, закинул на озон банк 600(ограничение в месяц у меня), остальное на Тиньков и через сбп перевел все. У озона вообще без комиссий, у Т небольшая была. А ещё и этот 1% с пополнения баланса Т2 - тоже перешёл на другой банк. Когда же они лопнут от жадности

    Согласен, они мега охуевшие, поэтому не завожу у них карту принципиально) канеш святых банков нет, но сбер прям говно говна

  • Было дело, довольно давно. По ощущением он чуть тупее ДипСика или около того.

    У нейросетей есть установка - дать информацию. Если ее нет в БД или они не могут найти ее в интернете (или вообще не имеют доступа в интернет), они ее просто выдумают. Если тот же ДипСик (а возможно и ЧатГПТ) попросить выдать цитаты из лит. произведения - он тебе какую-нибудь муть напридумывает. По крайней мере так было года пол назад.

    Если начать спрашивать про исполнителей песен, он начнёт говорить что песня, которой нету у него, принадлежит ему и будет выдумывать её смысл не по тексту 😁

    Да, гигачат основан на архитектуре deepseek, в сбер не отрицают этого. Насчёт весов точно не знаю, но инициализировали тоже вроде весами deepseek и на них уже обучали.

    интересно. не знал

    Архитектура у всех одинаковая - старый как гавно мамонта и всем известный трансформер, достаточно компактный по коду.

    Нейросеть - это база весов в первую очередь и они отличаются только качеством этой базы. Сделать претрэйн базы - это звиздец как дорого. И достаточно сложно подготовить огромный корпус систематизированых данных для этого

    Сбер вроде как вывез претрейн, а не файнтюн дипсика сделал

  • к сожалению отечественные ллм по объективным причинам отстают от передовых зарубежных на несколько лет, что по нынешним меркам - уже прошлый век.

  • Гигачат очень тупой! Диксик, qwen, чат ГПТ в разы лучше, вообще другой урвень

    Гигачат полностью идентичен по архитектуре и числу параметров дипсику, сбер явно говорит что они скопировали архитектуру и обучили заново на своих данных (т.е. веса таки свои)

    DeepSeek вышел когда, уже больше года назад? Очевидно, что передовые закрытые модели типа GPT-5.2 или Gemini будут сильно лучше их обоих, а дипсик - на уровне

    Ну и юзер кейсы у них разные. Нужна передовая наука и знаешь английский + есть VPN + иностранная карта чтоб заплатить (уже так то немалый порог входа) - конечно лучше идти в GPT/Gemini

    Нужен поиск или генерация повседневного контента на русском - идешь в гига чат

    Плюс у сбера явно будет фокус на прикручивании гига чата к каждому утюгу, по аналогии с Алисой Яндекса. Чужую модель - не прикрутишь, это неудобно по инфраструктурным и политическим соображениям

    Дипсик и Квен мне точно также безбожно врали, когда я пытала их на тему другого совершенно не секретного оборудования. А вот Perplexity красавчик.

    Они тоже тупые. Иди их сделали тупее. Платная версия чата ЖПТ ещё более-менее.

    Хз, я пользуюсь gpt для сбора научной, он иногда хуйню пишет, но в целом в 90% случаях, если нормально делать запрос, то выдает то, что надо

  • Не скажу насчет гигачата в общем, но я бы не сказал что распиновка старой микросхемы это простейший материал.

  • Все нейронки врут

  • Иногда использую по простым вопросам, потом сам проверяю

  • Я бы не стал полагаться на нейросети в таких вопросах.

    Недавно комп стал постоянно зависать, спросил у chatgpt в чем может быть причина. Ну он мне насоветовал заменить блок питания, материнку, кулер. Я всё это купил новое, а проблема осталась.

    В итоге оказалось что это процессор.

    Ну зато хоть комп обновил.

    Серьезно, ты купил новые комплектующие только потому, что это посоветовала нейронка?

    Я еще советовался с людьми. Всё перепробовал.

  • Сбер контора пидарасов. Если бы не зарплатный проект вообще бы с ним дел не имел. Условия по продуктам - всегда говно и хуже чем у конкурентов. Да и продукты их тоже дерьмо

  • Полное говно, для повседневного использования не нужно (её используют там, где все иностранные ИИ запрещены). Говорю как айти специалист, который использовал самые разные нейросети.

    А ты всегда веришь рекламе, да? Ну хотя бы проверил лично и убедился, что это говно полное. В отличии от российского автопрома, тут проверка вышла дешевле.

  • LLM грубо говорят, ищут информацию в интернете, а потом формируют на его основе обобщенный ответ. Если добавить RAG, то LLM сохраняет контекст предыдущей информации.

  • А Алиса придумывает несуществующие в природе микросхемы...

  • Гигачат прикольный но не как ассистент или помощник а скорее как собеседник, это отечественный грок, поболтать прикольно, но с конкретикой вообще не поможет, он либо обучен на сырых данных, либо не дообучен в принципе.

    [deleted]

    ну чат гопота весьма хорошо обученная модель. Тут короче суть в чем. Обучение LLM процесс многостадийный. Первая стадия это предтренеровка, и там важен масштаб. Для микромоделей на 1млрд параметров, нужно хотяб 20млрд токенов текста, 1млрд токенов это не много не мало 4-7гигов чистого RAW текста в зависимости от токенизатора. Другие стадии вроде SFT, SFT mutiturn, LRHF, DPO только задают поведение модели, устанавливают предохранители и прочее. В общем если в предтренеровочном корпусе не было даташитов на микросхемы и не подключена RAG база, но их попросить, модели будет просто не от куда брать даташит от того она просто на просто начнет выдумывать ответь (галюцинировать), загрузить же в свою очередь все данные интернета не получится. Сам по себе гигачат мне кажется очень не дообученым)

  • всё просто- не используйте обычные(!)бесплатные ии чаты для вещей сложнее, чем решение школьных задач и рандомных вопросов;

    логично, что ии не всезнающий аппарат, вы хоть посмотрите в каком году эти часы выпущены и подумайте: «а может ли он за такое короткое время усовершенствоваться до нужного вам уровня?»

    покупайте чаты из более развитых в этой сфере стран, ну или компаний

  • Чатик до гигачата ещё не дорос. Тоже тестил, правда на более сложной материале, на рисунках. Понял что врукопашную будет надёжнее и проще. Эту железяку ещё натаскивать и натаскивать

  • Во-первых, тема далеко не простейшая. Во-вторых, все ии врут, это неудивительно

  • Это самая плохая ИИ, хуже нее только разум 2-ух летнего ребенка( и то в поиске инфы он лучше будет). Генерить картинки не умеет, что то сложнее x*2=4 начинает цифры из своих видеокарт брать. Просто сделали для понта типо и мы можем, говно но можем

  • Все они сейчас тупеют в своей бесплатной оболочке. На старте им скормили нормальные источники информации. Теперь они жрут блоги, форумы. Завтра будут поедать СМИ (или уже). Просто прокачают опыт, затянут пользователей в интересное. А потом "моя версия 3" может ошибаться. Подключи подписку на версию 5 - там я умнее.

  • Гигачат вполне рабочий инструмент. Могу так говорить ибо пользуюсь сразу несколькими: deepseek, gigachat, gigacode, grok, chat gpt (последние через vpn).

    По вашему вопросу могу ответить как инженер, так как ИИ пользуются тем что написали сами люди, то вариантов несколько: или на каком то ресурсе не правильная распиновка, или ИИ путает с другим компонентом. 

    Пишите промт правильно, указывая, что это за элемент и кто производитель.

    Пользуюсь giga и deepseek

  • Гигачат говно конечно, но все же стоит тупо просить ссылку на даташит, оно сработает

  • Да корявый он.

  • Для повышения точности ответов многие LLM модели используют инструменты, например веб поиск. Насчёт Gigachat хз, использует ли он какие-нибудь инструменты, не юзаю отечественные LLM из-за низкого качества генерации