Русскоязычные LLM: отечественные разработки в сравнении с глобальными адаптациями
Современные языковые модели (они же LLM, они же Large Language Models) становятся все более востребованными практически во всех сферах. LLM уже не просто инструмент, а важнейшая часть технологического прогресса, позволяющая автоматизировать работу с текстами, проводить анализ данных, генерировать контент и даже серьезно помогать в обучении.
BotHub, GPTunnel, Chad AI — считаем где ChatGPT дешевле в России
Сейчас на фоне стремительной популяризации нейросетей, в России появилось достаточно много сервисов и агрегаторов, обеспечивающих удобный доступ к популярным языковым моделям без использования VPN. Однако при выборе подходящего решения мы зачастую сталкиваемся с проблемой разношерстной тарификация: у одних внутренняя валюта, у других стоимость за слова, третьи считают символы или количество токенов в запросе.
Deepseek: как превратить языковые модели в прибыльный бизнес, несмотря на снижение цен на рынке
В недавно опубликованных данных Deepseek говорится о том, что языковые модели могут приносить ощутимую выгоду, даже если их стоимость будет ниже, чем у OpenAI.Компания Deepseek предоставила
Grok 3 бета — эпоха «думающих» агентов
Grok 3 — это последняя серия моделей компании xAI Илона Маска. Представленная 17 февраля 2025 года, эта модель была обучена с использованием суперкомпьютера Colossus, оснащенного около 200 000 графических процессоров Nvidia H100, что в десять раз превышает вычислительные мощности, использованные для предыдущей версии Grok 2.Согласно результатам бенчмарков, представленным xAI, Grok 3 превосходит другие передовые модели, такие как GPT-4o, Claude 3.5 Sonnet, Gemini-2 Pro и DeepSeek-V3, в областях математики, программирования и научных исследований.
Языковые модели могут перегружать себя мыслями и застревать в бесконечных циклах мыслей
Новое исследование выявило неожиданную слабость языковых моделей: они могут зацикливаться на мышлении вместо действия, особенно в интерактивных средах. Эта тенденция к чрезмерному размышлению может значительно повредить их производительности, даже несмотря на то, что эти модели специально разработаны для рассуждений. Исследователи из нескольких университетов США и ETH Zurich разработали методы для измерения и решения этой проблемы в интерактивных сценариях, называемых «агентными задачами».
«Темпоральные головы» в языковых моделях: новые возможности для AI
Исследование ученых из Korea University, Upstage AI и AIGEN Sciences выявило специализированные компоненты в больших языковых моделях, которые обрабатывают информацию, зависящую от времени. Эти «темпоральные головы» играют решающую роль в том, как системы AI обрабатывают факты, которые меняются со временем.
Мнение: из-за языковых моделей джуниоры перестают думать, решая проблемы с кодом
Разработчик Наманьяй Гоэль (Namanyay Goel) поделился своими наблюдениями за тем, как начинающие разработчики решают проблемы с кодом. Если раньше надо было понять суть ошибки, перечитать несколько веток обсуждений на Stack Overflow и адаптировать решение под свой проект, то сейчас можно получить моментальный ответ от ChatGPT и даже не вникать в детали. Гоэль уверен, что это отучает программистов мыслить и анализировать информацию.
Aomni привлекает $4 миллиона, доказывая, что AI может увеличить продажи, не заменяя людей
Aomni, платформа на основе AI, которая помогает отделам продаж проводить глубокое исследование потенциальных клиентов, привлекла 4 миллиона долларов в качестве начального финансирования под руководством Decibel при участии Sancus Ventures и Ride Home Fund. Компания придерживается подхода, ориентированного на человека, на рынке, перенасыщенном инструментами на основе AI, которые автоматизируют работу отделов продаж.
Исследователи обнаружили, что больше не нужна тонна данных, чтобы обучить LLM выполнению логических задач
Согласно новому исследованию, проведенному исследователями Шанхайского университета Цзяо Тун, большие языковые модели (LLM) могут выполнять сложные задачи рассуждения, не полагаясь на большие наборы данных. Результаты исследования демонстрируют, что при использовании ограниченного количества тщательно отобранных образцов можно подготовить специалиста в области юриспруденции к выполнению задач, которые, как предполагалось, требуют огромного количества учебных материалов.

