MTS AI выпустила Cotype Pro 2 — второе поколение LLM для бизнеса
MTS AI представила
Как мы учим LLM оценивать друг друга и как это помогло нам улучшить Cotype
Всем привет! Сегодня мы выпустили
Gemini 2.5 Pro еще ближе к человеку, но реально рассуждать умеют только модели OpenAI
Моя первая статья на Хабре, хочу поделиться своими находками и мыслями.На этой неделе вышла новая модель Gemini 2.5 Pro от Google. Много уже было про нее сказано, но я стараюсь не обращать внимания на волны хайпа вокруг новинок, ориентируясь на свои доверенные источники. Одним из них является любительский бенчмарк SimpleBench, который тестирует здравый смысл в реальной жизни. Этот бенчмарк интересен тем, что в нем самый обычный человек набирает 83.7%, а передовые ИИ модели до сих пор не могут даже приблизиться к этому показателю. Пример вопроса (вольный перевод на русский):
Состоялся релиз MedAgentSim — открытой нейросимуляции больницы
Исследователи Университета искусственного интеллекта имени Мохаммеда бен Зайда в Абу-Даби выпустили MedAgentSim — открытую нейросимуляцию больницы. В ней ИИ-агенты играют роли врачей и пациентов: жалуются на болячки, строят диалоги, ставят диагнозы и назначают лечение.
Балансировка нагрузки LLM через Nginx
Исходный код, разобранный в статье, опубликован в этом репозиторииВ интернете существует множество примеров, которые позволяют подключить ChatGPT 3.5 без инструментов к телеграм боту. Однако, когда речь заходит о большом количестве пользователей, не существуют примеров распределения нагрузки по нескольким процессам: все туториалы в интернете запускают монолит с одной репликой
Машина может быть живой?
Это продолжение прошлых статей по поводу создания СИИ. Учитывая ошибки прошлой статьи хочу порассуждать на вопросы: сможем ли мы когда-нибудь считать машину живой? При каких условиях можно выдать ей паспорт гражданина? Какие правовые и этические последствия это повлечёт? Пробуем полностью пересмотреть понятия живого и неживого. Проведем мысленную эквилибристику.
Слушать некогда читать: где поставим запятую?
Узнаете, когда заглянете под кат.😉 Для затравочки: речь пойдёт про инструмент ЮMoney для транскрибации аудио с внутренних созвонов в тексты и про кое-что ещё для наших клиентов. 😎👇Меня зовут Макс, я аналитик в ЮMoney. Недавно перед моей командой стояло две цели:
Как мы транскрибируем аудио с внутренних созвонов в текст
Меня зовут Макс, я аналитик в ЮMoney. Недавно перед моей командой стояло две цели:● Повысить качество взаимодействия пользователя и бизнеса за счёт аналитики данных аудио.● Снизить время на рутину у коллег.Так родились два проекта 👇●
ИИ читает мысли во время просмотра «Теории Большого Взрыва» с помощью фМРТ и ЭЭГ
Привет, Хабр! Сегодня разберем интересную научную работу, которая находится на стыке нейронаук и искусственного интеллекта. Исследователи создали уникальный датасет и модель для декодирования активности мозга человека во время просмотра видео. Давайте посмотрим, как это работает.

