Возможно, стоит посмотреть на спец ресурсах в интернете, а не спрашивать у рандомной гопоты. Каждая иишка пиздит и делает ошибки, это не всезнающее существо
Пиздит каждая, но гигачад действительно тупой. Хотя что ожидать от Сбера, да и от Яндекса тоже — у них просто нет таких ресурсов, чтобы обучать нейронки до уровня зарубежных корпораций
Вообще зажрались твари. Тут нужда была перевести миллион сестре. Сбер влупил комиссию 10 тысяч со сбер праймом. Плюнул, закинул на озон банк 600(ограничение в месяц у меня), остальное на Тиньков и через сбп перевел все. У озона вообще без комиссий, у Т небольшая была.
А ещё и этот 1% с пополнения баланса Т2 - тоже перешёл на другой банк. Когда же они лопнут от жадности
Было дело, довольно давно. По ощущением он чуть тупее ДипСика или около того.
У нейросетей есть установка - дать информацию. Если ее нет в БД или они не могут найти ее в интернете (или вообще не имеют доступа в интернет), они ее просто выдумают. Если тот же ДипСик (а возможно и ЧатГПТ) попросить выдать цитаты из лит. произведения - он тебе какую-нибудь муть напридумывает. По крайней мере так было года пол назад.
Если начать спрашивать про исполнителей песен, он начнёт говорить что песня, которой нету у него, принадлежит ему и будет выдумывать её смысл не по тексту 😁
Да, гигачат основан на архитектуре deepseek, в сбер не отрицают этого. Насчёт весов точно не знаю, но инициализировали тоже вроде весами deepseek и на них уже обучали.
Архитектура у всех одинаковая - старый как гавно мамонта и всем известный трансформер, достаточно компактный по коду.
Нейросеть - это база весов в первую очередь и они отличаются только качеством этой базы.
Сделать претрэйн базы - это звиздец как дорого. И достаточно сложно подготовить огромный корпус систематизированых данных для этого
Гигачат полностью идентичен по архитектуре и числу параметров дипсику, сбер явно говорит что они скопировали архитектуру и обучили заново на своих данных (т.е. веса таки свои)
DeepSeek вышел когда, уже больше года назад? Очевидно, что передовые закрытые модели типа GPT-5.2 или Gemini будут сильно лучше их обоих, а дипсик - на уровне
Ну и юзер кейсы у них разные. Нужна передовая наука и знаешь английский + есть VPN + иностранная карта чтоб заплатить (уже так то немалый порог входа) - конечно лучше идти в GPT/Gemini
Нужен поиск или генерация повседневного контента на русском - идешь в гига чат
Плюс у сбера явно будет фокус на прикручивании гига чата к каждому утюгу, по аналогии с Алисой Яндекса. Чужую модель - не прикрутишь, это неудобно по инфраструктурным и политическим соображениям
Я бы не стал полагаться на нейросети в таких вопросах.
Недавно комп стал постоянно зависать, спросил у chatgpt в чем может быть причина. Ну он мне насоветовал заменить блок питания, материнку, кулер. Я всё это купил новое, а проблема осталась.
Сбер контора пидарасов. Если бы не зарплатный проект вообще бы с ним дел не имел. Условия по продуктам - всегда говно и хуже чем у конкурентов. Да и продукты их тоже дерьмо
Полное говно, для повседневного использования не нужно (её используют там, где все иностранные ИИ запрещены). Говорю как айти специалист, который использовал самые разные нейросети.
А ты всегда веришь рекламе, да? Ну хотя бы проверил лично и убедился, что это говно полное. В отличии от российского автопрома, тут проверка вышла дешевле.
LLM грубо говорят, ищут информацию в интернете, а потом формируют на его основе обобщенный ответ. Если добавить RAG, то LLM сохраняет контекст предыдущей информации.
Гигачат прикольный но не как ассистент или помощник а скорее как собеседник, это отечественный грок, поболтать прикольно, но с конкретикой вообще не поможет, он либо обучен на сырых данных, либо не дообучен в принципе.
ну чат гопота весьма хорошо обученная модель. Тут короче суть в чем. Обучение LLM процесс многостадийный. Первая стадия это предтренеровка, и там важен масштаб. Для микромоделей на 1млрд параметров, нужно хотяб 20млрд токенов текста, 1млрд токенов это не много не мало 4-7гигов чистого RAW текста в зависимости от токенизатора. Другие стадии вроде SFT, SFT mutiturn, LRHF, DPO только задают поведение модели, устанавливают предохранители и прочее. В общем если в предтренеровочном корпусе не было даташитов на микросхемы и не подключена RAG база, но их попросить, модели будет просто не от куда брать даташит от того она просто на просто начнет выдумывать ответь (галюцинировать), загрузить же в свою очередь все данные интернета не получится. Сам по себе гигачат мне кажется очень не дообученым)
всё просто- не используйте обычные(!)бесплатные ии чаты для вещей сложнее, чем решение школьных задач и рандомных вопросов;
логично, что ии не всезнающий аппарат, вы хоть посмотрите в каком году эти часы выпущены и подумайте: «а может ли он за такое короткое время усовершенствоваться до нужного вам уровня?»
покупайте чаты из более развитых в этой сфере стран, ну или компаний
Чатик до гигачата ещё не дорос. Тоже тестил, правда на более сложной материале, на рисунках. Понял что врукопашную будет надёжнее и проще. Эту железяку ещё натаскивать и натаскивать
Это самая плохая ИИ, хуже нее только разум 2-ух летнего ребенка( и то в поиске инфы он лучше будет). Генерить картинки не умеет, что то сложнее x*2=4 начинает цифры из своих видеокарт брать. Просто сделали для понта типо и мы можем, говно но можем
Все они сейчас тупеют в своей бесплатной оболочке. На старте им скормили нормальные источники информации. Теперь они жрут блоги, форумы. Завтра будут поедать СМИ (или уже). Просто прокачают опыт, затянут пользователей в интересное. А потом "моя версия 3" может ошибаться. Подключи подписку на версию 5 - там я умнее.
Гигачат вполне рабочий инструмент. Могу так говорить ибо пользуюсь сразу несколькими: deepseek, gigachat, gigacode, grok, chat gpt (последние через vpn).
По вашему вопросу могу ответить как инженер, так как ИИ пользуются тем что написали сами люди, то вариантов несколько: или на каком то ресурсе не правильная распиновка, или ИИ путает с другим компонентом.
Пишите промт правильно, указывая, что это за элемент и кто производитель.
Для повышения точности ответов многие LLM модели используют инструменты, например веб поиск. Насчёт Gigachat хз, использует ли он какие-нибудь инструменты, не юзаю отечественные LLM из-за низкого качества генерации
Наш телеграмм канал
I am a bot, and this action was performed automatically. Please contact the moderators of this subreddit if you have any questions or concerns.
Возможно, стоит посмотреть на спец ресурсах в интернете, а не спрашивать у рандомной гопоты. Каждая иишка пиздит и делает ошибки, это не всезнающее существо
Шутка в том, что это ИИ-шку даже не попытались сделать мало-мальски рабочей и удобной в использовании ))
Пиздит каждая, но гигачад действительно тупой. Хотя что ожидать от Сбера, да и от Яндекса тоже — у них просто нет таких ресурсов, чтобы обучать нейронки до уровня зарубежных корпораций
[deleted]
Он не совсем прав. Вот например вывод бесплатной qwen3, можешь сам проверить соврала она или нет.
https://preview.redd.it/dsf1lg2uyw7g1.png?width=955&format=png&auto=webp&s=4663acb868bca326c1914b8432d6a648a5d44c27
Ну ты удивил конечно, у сбера все продукты говно по дефолту. Их максимум - собирать комиссии за переводы, тут еще худо-бедно справляются.
Вообще зажрались твари. Тут нужда была перевести миллион сестре. Сбер влупил комиссию 10 тысяч со сбер праймом. Плюнул, закинул на озон банк 600(ограничение в месяц у меня), остальное на Тиньков и через сбп перевел все. У озона вообще без комиссий, у Т небольшая была. А ещё и этот 1% с пополнения баланса Т2 - тоже перешёл на другой банк. Когда же они лопнут от жадности
Согласен, они мега охуевшие, поэтому не завожу у них карту принципиально) канеш святых банков нет, но сбер прям говно говна
Было дело, довольно давно. По ощущением он чуть тупее ДипСика или около того.
У нейросетей есть установка - дать информацию. Если ее нет в БД или они не могут найти ее в интернете (или вообще не имеют доступа в интернет), они ее просто выдумают. Если тот же ДипСик (а возможно и ЧатГПТ) попросить выдать цитаты из лит. произведения - он тебе какую-нибудь муть напридумывает. По крайней мере так было года пол назад.
Если начать спрашивать про исполнителей песен, он начнёт говорить что песня, которой нету у него, принадлежит ему и будет выдумывать её смысл не по тексту 😁
Да, гигачат основан на архитектуре deepseek, в сбер не отрицают этого. Насчёт весов точно не знаю, но инициализировали тоже вроде весами deepseek и на них уже обучали.
интересно. не знал
Архитектура у всех одинаковая - старый как гавно мамонта и всем известный трансформер, достаточно компактный по коду.
Нейросеть - это база весов в первую очередь и они отличаются только качеством этой базы. Сделать претрэйн базы - это звиздец как дорого. И достаточно сложно подготовить огромный корпус систематизированых данных для этого
Сбер вроде как вывез претрейн, а не файнтюн дипсика сделал
к сожалению отечественные ллм по объективным причинам отстают от передовых зарубежных на несколько лет, что по нынешним меркам - уже прошлый век.
Гигачат очень тупой! Диксик, qwen, чат ГПТ в разы лучше, вообще другой урвень
Гигачат полностью идентичен по архитектуре и числу параметров дипсику, сбер явно говорит что они скопировали архитектуру и обучили заново на своих данных (т.е. веса таки свои)
DeepSeek вышел когда, уже больше года назад? Очевидно, что передовые закрытые модели типа GPT-5.2 или Gemini будут сильно лучше их обоих, а дипсик - на уровне
Ну и юзер кейсы у них разные. Нужна передовая наука и знаешь английский + есть VPN + иностранная карта чтоб заплатить (уже так то немалый порог входа) - конечно лучше идти в GPT/Gemini
Нужен поиск или генерация повседневного контента на русском - идешь в гига чат
Плюс у сбера явно будет фокус на прикручивании гига чата к каждому утюгу, по аналогии с Алисой Яндекса. Чужую модель - не прикрутишь, это неудобно по инфраструктурным и политическим соображениям
Дипсик и Квен мне точно также безбожно врали, когда я пытала их на тему другого совершенно не секретного оборудования. А вот Perplexity красавчик.
Они тоже тупые. Иди их сделали тупее. Платная версия чата ЖПТ ещё более-менее.
Хз, я пользуюсь gpt для сбора научной, он иногда хуйню пишет, но в целом в 90% случаях, если нормально делать запрос, то выдает то, что надо
https://preview.redd.it/pwnovo90sw7g1.jpeg?width=1439&format=pjpg&auto=webp&s=91797224f67d49b69542e63dbe60070a6e640773
Не скажу насчет гигачата в общем, но я бы не сказал что распиновка старой микросхемы это простейший материал.
Все нейронки врут
Иногда использую по простым вопросам, потом сам проверяю
Я бы не стал полагаться на нейросети в таких вопросах.
Недавно комп стал постоянно зависать, спросил у chatgpt в чем может быть причина. Ну он мне насоветовал заменить блок питания, материнку, кулер. Я всё это купил новое, а проблема осталась.
В итоге оказалось что это процессор.
Ну зато хоть комп обновил.
Серьезно, ты купил новые комплектующие только потому, что это посоветовала нейронка?
Я еще советовался с людьми. Всё перепробовал.
Сбер контора пидарасов. Если бы не зарплатный проект вообще бы с ним дел не имел. Условия по продуктам - всегда говно и хуже чем у конкурентов. Да и продукты их тоже дерьмо
Полное говно, для повседневного использования не нужно (её используют там, где все иностранные ИИ запрещены). Говорю как айти специалист, который использовал самые разные нейросети.
А ты всегда веришь рекламе, да? Ну хотя бы проверил лично и убедился, что это говно полное. В отличии от российского автопрома, тут проверка вышла дешевле.
LLM грубо говорят, ищут информацию в интернете, а потом формируют на его основе обобщенный ответ. Если добавить RAG, то LLM сохраняет контекст предыдущей информации.
А Алиса придумывает несуществующие в природе микросхемы...
[deleted]
Кстати зря.
Гигачат прикольный но не как ассистент или помощник а скорее как собеседник, это отечественный грок, поболтать прикольно, но с конкретикой вообще не поможет, он либо обучен на сырых данных, либо не дообучен в принципе.
[deleted]
ну чат гопота весьма хорошо обученная модель. Тут короче суть в чем. Обучение LLM процесс многостадийный. Первая стадия это предтренеровка, и там важен масштаб. Для микромоделей на 1млрд параметров, нужно хотяб 20млрд токенов текста, 1млрд токенов это не много не мало 4-7гигов чистого RAW текста в зависимости от токенизатора. Другие стадии вроде SFT, SFT mutiturn, LRHF, DPO только задают поведение модели, устанавливают предохранители и прочее. В общем если в предтренеровочном корпусе не было даташитов на микросхемы и не подключена RAG база, но их попросить, модели будет просто не от куда брать даташит от того она просто на просто начнет выдумывать ответь (галюцинировать), загрузить же в свою очередь все данные интернета не получится. Сам по себе гигачат мне кажется очень не дообученым)
всё просто- не используйте обычные(!)бесплатные ии чаты для вещей сложнее, чем решение школьных задач и рандомных вопросов;
логично, что ии не всезнающий аппарат, вы хоть посмотрите в каком году эти часы выпущены и подумайте: «а может ли он за такое короткое время усовершенствоваться до нужного вам уровня?»
покупайте чаты из более развитых в этой сфере стран, ну или компаний
Чатик до гигачата ещё не дорос. Тоже тестил, правда на более сложной материале, на рисунках. Понял что врукопашную будет надёжнее и проще. Эту железяку ещё натаскивать и натаскивать
Во-первых, тема далеко не простейшая. Во-вторых, все ии врут, это неудивительно
Это самая плохая ИИ, хуже нее только разум 2-ух летнего ребенка( и то в поиске инфы он лучше будет). Генерить картинки не умеет, что то сложнее x*2=4 начинает цифры из своих видеокарт брать. Просто сделали для понта типо и мы можем, говно но можем
Все они сейчас тупеют в своей бесплатной оболочке. На старте им скормили нормальные источники информации. Теперь они жрут блоги, форумы. Завтра будут поедать СМИ (или уже). Просто прокачают опыт, затянут пользователей в интересное. А потом "моя версия 3" может ошибаться. Подключи подписку на версию 5 - там я умнее.
Гигачат вполне рабочий инструмент. Могу так говорить ибо пользуюсь сразу несколькими: deepseek, gigachat, gigacode, grok, chat gpt (последние через vpn).
По вашему вопросу могу ответить как инженер, так как ИИ пользуются тем что написали сами люди, то вариантов несколько: или на каком то ресурсе не правильная распиновка, или ИИ путает с другим компонентом.
Пишите промт правильно, указывая, что это за элемент и кто производитель.
Пользуюсь giga и deepseek
Гигачат говно конечно, но все же стоит тупо просить ссылку на даташит, оно сработает
Да корявый он.
Для повышения точности ответов многие LLM модели используют инструменты, например веб поиск. Насчёт Gigachat хз, использует ли он какие-нибудь инструменты, не юзаю отечественные LLM из-за низкого качества генерации