https://preview.redd.it/ov7s230upw7g1.jpg?width=915&format=pjpg&auto=webp&s=a22d34b38a345170e17d43b57b714a28edd8cb69

Врет безбожно даже на простейшем материале. TL494 - старая микросхема, широко известная разработанная ещё в 80х годах прошлого века но до сих пор её выпускают серийно ( для блоков питания) Я просто попросил чтобы ГИГАЧАТ написал распиновку ног. За что каждая нога отвечает. Так получил такую чушь всё полностью перепутано и даже лишнего придумано.

https://preview.redd.it/1v1xp89kpw7g1.jpg?width=991&format=pjpg&auto=webp&s=b1ac70e9313fe5e2d4f861bacc64b96e3a84c5f7

  • Возможно, стоит посмотреть на спец ресурсах в интернете, а не спрашивать у рандомной гопоты. Каждая иишка пиздит и делает ошибки, это не всезнающее существо

    Шутка в том, что это ИИ-шку даже не попытались сделать мало-мальски рабочей и удобной в использовании ))

    Пиздит каждая, но гигачад действительно тупой. Хотя что ожидать от Сбера, да и от Яндекса тоже — у них просто нет таких ресурсов, чтобы обучать нейронки до уровня зарубежных корпораций

    Да вы правы.

    ну...я тут не вижу ошибок. вроде всё правильно

  • Ну ты удивил конечно, у сбера все продукты говно по дефолту. Их максимум - собирать комиссии за переводы, тут еще худо-бедно справляются.

  • к сожалению отечественные ллм по объективным причинам отстают от передовых зарубежных на несколько лет, что по нынешним меркам - уже прошлый век.

  • Было дело, довольно давно. По ощущением он чуть тупее ДипСика или около того.

    У нейросетей есть установка - дать информацию. Если ее нет в БД или они не могут найти ее в интернете (или вообще не имеют доступа в интернет), они ее просто выдумают. Если тот же ДипСик (а возможно и ЧатГПТ) попросить выдать цитаты из лит. произведения - он тебе какую-нибудь муть напридумывает. По крайней мере так было года пол назад.

    Если начать спрашивать про исполнителей песен, он начнёт говорить что песня, которой нету у него, принадлежит ему и будет выдумывать её смысл не по тексту 😁

    Да, гигачат основан на архитектуре deepseek, в сбер не отрицают этого. Насчёт весов точно не знаю, но инициализировали тоже вроде весами deepseek и на них уже обучали.

    интересно. не знал

    Полностью с вами согласен

  • Гигачат очень тупой! Диксик, qwen, чат ГПТ в разы лучше, вообще другой урвень

    Дипсик и Квен мне точно также безбожно врали, когда я пытала их на тему другого совершенно не секретного оборудования. А вот Perplexity красавчик.

    Гигачат полностью идентичен по архитектуре и числу параметров дипсику, сбер явно говорит что они скопировали архитектуру и обучили заново на своих данных (т.е. веса таки свои)

    DeepSeek вышел когда, уже больше года назад? Очевидно, что передовые закрытые модели типа GPT-5.2 или Gemini будут сильно лучше их обоих, а дипсик - на уровне

    Ну и юзер кейсы у них разные. Нужна передовая наука и знаешь английский + есть VPN + иностранная карта чтоб заплатить (уже так то немалый порог входа) - конечно лучше идти в GPT/Gemini

    Нужен поиск или генерация повседневного контента на русском - идешь в гига чат

    Плюс у сбера явно будет фокус на прикручивании гига чата к каждому утюгу, по аналогии с Алисой Яндекса. Чужую модель - не прикрутишь, это неудобно по инфраструктурным и политическим соображениям

    Они тоже тупые. Иди их сделали тупее. Платная версия чата ЖПТ ещё более-менее.

    Хз, я пользуюсь gpt для сбора научной, он иногда хуйню пишет, но в целом в 90% случаях, если нормально делать запрос, то выдает то, что надо

  • Не скажу насчет гигачата в общем, но я бы не сказал что распиновка старой микросхемы это простейший материал.

  • Все нейронки врут

  • Иногда использую по простым вопросам, потом сам проверяю

  • Я бы не стал полагаться на нейросети в таких вопросах.

    Недавно комп стал постоянно зависать, спросил у chatgpt в чем может быть причина. Ну он мне насоветовал заменить блок питания, материнку, кулер. Я всё это купил новое, а проблема осталась.

    В итоге оказалось что это процессор.

    Ну зато хоть комп обновил.

    Серьезно, ты купил новые комплектующие только потому, что это посоветовала нейронка?

    Я еще советовался с людьми. Всё перепробовал.

  • Полное говно, для повседневного использования не нужно (её используют там, где все иностранные ИИ запрещены). Говорю как айти специалист, который использовал самые разные нейросети.

    А ты всегда веришь рекламе, да? Ну хотя бы проверил лично и убедился, что это говно полное. В отличии от российского автопрома, тут проверка вышла дешевле.

  • LLM грубо говорят, ищут информацию в интернете, а потом формируют на его основе обобщенный ответ. Если добавить RAG, то LLM сохраняет контекст предыдущей информации.

  • А Алиса придумывает несуществующие в природе микросхемы...

    )) я к Алисе как к приложению поисковика всегда относился, не как отдельному чатботу)

    Кстати зря.

  • Гигачат прикольный но не как ассистент или помощник а скорее как собеседник, это отечественный грок, поболтать прикольно, но с конкретикой вообще не поможет, он либо обучен на сырых данных, либо не дообучен в принципе.

    мне нравится как chat GPT расчеты делает. Если условия заданы правильно, то всё четко. Особенно в электротехнике. Сколько раз проверял даже на практике - всё точно.

    ну чат гопота весьма хорошо обученная модель. Тут короче суть в чем. Обучение LLM процесс многостадийный. Первая стадия это предтренеровка, и там важен масштаб. Для микромоделей на 1млрд параметров, нужно хотяб 20млрд токенов текста, 1млрд токенов это не много не мало 4-7гигов чистого RAW текста в зависимости от токенизатора. Другие стадии вроде SFT, SFT mutiturn, LRHF, DPO только задают поведение модели, устанавливают предохранители и прочее. В общем если в предтренеровочном корпусе не было даташитов на микросхемы и не подключена RAG база, но их попросить, модели будет просто не от куда брать даташит от того она просто на просто начнет выдумывать ответь (галюцинировать), загрузить же в свою очередь все данные интернета не получится. Сам по себе гигачат мне кажется очень не дообученым)

  • всё просто- не используйте обычные(!)бесплатные ии чаты для вещей сложнее, чем решение школьных задач и рандомных вопросов;

    логично, что ии не всезнающий аппарат, вы хоть посмотрите в каком году эти часы выпущены и подумайте: «а может ли он за такое короткое время усовершенствоваться до нужного вам уровня?»

    покупайте чаты из более развитых в этой сфере стран, ну или компаний

  • Чатик до гигачата ещё не дорос. Тоже тестил, правда на более сложной материале, на рисунках. Понял что врукопашную будет надёжнее и проще. Эту железяку ещё натаскивать и натаскивать

  • Во-первых, тема далеко не простейшая. Во-вторых, все ии врут, это неудивительно

  • Сбер контора пидарасов. Если бы не зарплатный проект вообще бы с ним дел не имел. Условия по продуктам - всегда говно и хуже чем у конкурентов. Да и продукты их тоже дерьмо

  • Это самая плохая ИИ, хуже нее только разум 2-ух летнего ребенка( и то в поиске инфы он лучше будет). Генерить картинки не умеет, что то сложнее x*2=4 начинает цифры из своих видеокарт брать. Просто сделали для понта типо и мы можем, говно но можем

  • Гигачат говно конечно, но все же стоит тупо просить ссылку на даташит, оно сработает

  • Да корявый он.

  • Для повышения точности ответов многие LLM модели используют инструменты, например веб поиск. Насчёт Gigachat хз, использует ли он какие-нибудь инструменты, не юзаю отечественные LLM из-за низкого качества генерации