Врет безбожно даже на простейшем материале. TL494 - старая микросхема, широко известная разработанная ещё в 80х годах прошлого века но до сих пор её выпускают серийно ( для блоков питания) Я просто попросил чтобы ГИГАЧАТ написал распиновку ног. За что каждая нога отвечает. Так получил такую чушь всё полностью перепутано и даже лишнего придумано.
Наш телеграмм канал
I am a bot, and this action was performed automatically. Please contact the moderators of this subreddit if you have any questions or concerns.
Возможно, стоит посмотреть на спец ресурсах в интернете, а не спрашивать у рандомной гопоты. Каждая иишка пиздит и делает ошибки, это не всезнающее существо
Шутка в том, что это ИИ-шку даже не попытались сделать мало-мальски рабочей и удобной в использовании ))
Пиздит каждая, но гигачад действительно тупой. Хотя что ожидать от Сбера, да и от Яндекса тоже — у них просто нет таких ресурсов, чтобы обучать нейронки до уровня зарубежных корпораций
Да вы правы.
Он не совсем прав. Вот например вывод бесплатной qwen3, можешь сам проверить соврала она или нет.
https://preview.redd.it/dsf1lg2uyw7g1.png?width=955&format=png&auto=webp&s=4663acb868bca326c1914b8432d6a648a5d44c27
ну...я тут не вижу ошибок. вроде всё правильно
Ну ты удивил конечно, у сбера все продукты говно по дефолту. Их максимум - собирать комиссии за переводы, тут еще худо-бедно справляются.
к сожалению отечественные ллм по объективным причинам отстают от передовых зарубежных на несколько лет, что по нынешним меркам - уже прошлый век.
Было дело, довольно давно. По ощущением он чуть тупее ДипСика или около того.
У нейросетей есть установка - дать информацию. Если ее нет в БД или они не могут найти ее в интернете (или вообще не имеют доступа в интернет), они ее просто выдумают. Если тот же ДипСик (а возможно и ЧатГПТ) попросить выдать цитаты из лит. произведения - он тебе какую-нибудь муть напридумывает. По крайней мере так было года пол назад.
Если начать спрашивать про исполнителей песен, он начнёт говорить что песня, которой нету у него, принадлежит ему и будет выдумывать её смысл не по тексту 😁
забавно)))
Да, гигачат основан на архитектуре deepseek, в сбер не отрицают этого. Насчёт весов точно не знаю, но инициализировали тоже вроде весами deepseek и на них уже обучали.
интересно. не знал
Полностью с вами согласен
Гигачат очень тупой! Диксик, qwen, чат ГПТ в разы лучше, вообще другой урвень
Дипсик и Квен мне точно также безбожно врали, когда я пытала их на тему другого совершенно не секретного оборудования. А вот Perplexity красавчик.
Гигачат полностью идентичен по архитектуре и числу параметров дипсику, сбер явно говорит что они скопировали архитектуру и обучили заново на своих данных (т.е. веса таки свои)
DeepSeek вышел когда, уже больше года назад? Очевидно, что передовые закрытые модели типа GPT-5.2 или Gemini будут сильно лучше их обоих, а дипсик - на уровне
Ну и юзер кейсы у них разные. Нужна передовая наука и знаешь английский + есть VPN + иностранная карта чтоб заплатить (уже так то немалый порог входа) - конечно лучше идти в GPT/Gemini
Нужен поиск или генерация повседневного контента на русском - идешь в гига чат
Плюс у сбера явно будет фокус на прикручивании гига чата к каждому утюгу, по аналогии с Алисой Яндекса. Чужую модель - не прикрутишь, это неудобно по инфраструктурным и политическим соображениям
Они тоже тупые. Иди их сделали тупее. Платная версия чата ЖПТ ещё более-менее.
Хз, я пользуюсь gpt для сбора научной, он иногда хуйню пишет, но в целом в 90% случаях, если нормально делать запрос, то выдает то, что надо
https://preview.redd.it/pwnovo90sw7g1.jpeg?width=1439&format=pjpg&auto=webp&s=91797224f67d49b69542e63dbe60070a6e640773
Не скажу насчет гигачата в общем, но я бы не сказал что распиновка старой микросхемы это простейший материал.
Все нейронки врут
Иногда использую по простым вопросам, потом сам проверяю
Я бы не стал полагаться на нейросети в таких вопросах.
Недавно комп стал постоянно зависать, спросил у chatgpt в чем может быть причина. Ну он мне насоветовал заменить блок питания, материнку, кулер. Я всё это купил новое, а проблема осталась.
В итоге оказалось что это процессор.
Ну зато хоть комп обновил.
Серьезно, ты купил новые комплектующие только потому, что это посоветовала нейронка?
Я еще советовался с людьми. Всё перепробовал.
Полное говно, для повседневного использования не нужно (её используют там, где все иностранные ИИ запрещены). Говорю как айти специалист, который использовал самые разные нейросети.
А ты всегда веришь рекламе, да? Ну хотя бы проверил лично и убедился, что это говно полное. В отличии от российского автопрома, тут проверка вышла дешевле.
))) да уж))
LLM грубо говорят, ищут информацию в интернете, а потом формируют на его основе обобщенный ответ. Если добавить RAG, то LLM сохраняет контекст предыдущей информации.
А Алиса придумывает несуществующие в природе микросхемы...
)) я к Алисе как к приложению поисковика всегда относился, не как отдельному чатботу)
Кстати зря.
Гигачат прикольный но не как ассистент или помощник а скорее как собеседник, это отечественный грок, поболтать прикольно, но с конкретикой вообще не поможет, он либо обучен на сырых данных, либо не дообучен в принципе.
мне нравится как chat GPT расчеты делает. Если условия заданы правильно, то всё четко. Особенно в электротехнике. Сколько раз проверял даже на практике - всё точно.
ну чат гопота весьма хорошо обученная модель. Тут короче суть в чем. Обучение LLM процесс многостадийный. Первая стадия это предтренеровка, и там важен масштаб. Для микромоделей на 1млрд параметров, нужно хотяб 20млрд токенов текста, 1млрд токенов это не много не мало 4-7гигов чистого RAW текста в зависимости от токенизатора. Другие стадии вроде SFT, SFT mutiturn, LRHF, DPO только задают поведение модели, устанавливают предохранители и прочее. В общем если в предтренеровочном корпусе не было даташитов на микросхемы и не подключена RAG база, но их попросить, модели будет просто не от куда брать даташит от того она просто на просто начнет выдумывать ответь (галюцинировать), загрузить же в свою очередь все данные интернета не получится. Сам по себе гигачат мне кажется очень не дообученым)
согласен
всё просто- не используйте обычные(!)бесплатные ии чаты для вещей сложнее, чем решение школьных задач и рандомных вопросов;
логично, что ии не всезнающий аппарат, вы хоть посмотрите в каком году эти часы выпущены и подумайте: «а может ли он за такое короткое время усовершенствоваться до нужного вам уровня?»
покупайте чаты из более развитых в этой сфере стран, ну или компаний
Чатик до гигачата ещё не дорос. Тоже тестил, правда на более сложной материале, на рисунках. Понял что врукопашную будет надёжнее и проще. Эту железяку ещё натаскивать и натаскивать
Во-первых, тема далеко не простейшая. Во-вторых, все ии врут, это неудивительно
Сбер контора пидарасов. Если бы не зарплатный проект вообще бы с ним дел не имел. Условия по продуктам - всегда говно и хуже чем у конкурентов. Да и продукты их тоже дерьмо
Это самая плохая ИИ, хуже нее только разум 2-ух летнего ребенка( и то в поиске инфы он лучше будет). Генерить картинки не умеет, что то сложнее x*2=4 начинает цифры из своих видеокарт брать. Просто сделали для понта типо и мы можем, говно но можем
Гигачат говно конечно, но все же стоит тупо просить ссылку на даташит, оно сработает
Да корявый он.
Для повышения точности ответов многие LLM модели используют инструменты, например веб поиск. Насчёт Gigachat хз, использует ли он какие-нибудь инструменты, не юзаю отечественные LLM из-за низкого качества генерации