Finetuning без греха: как кастомизировать AI и не сломать его
Создание кастомной AI-модели для бизнеса кажется простой: скачал базовую модель, загрузил данные — и вот уже готовый AI-юрист или диагност. Но на практике компания часто получает беспомощного «Франкенштейна», который генерирует полную ахинею. Итог — месяцы работы впустую и выброшенный бюджет. В чем же ошибка? Finetuning — это не волшебная палочка для мгновенного результата, а точный хирургический инструмент. Его неверное применение не улучшает модель, а буквально калечит ее.С вами вновь Александр Константинов — технический эксперт из Cloud.ru
Deep Research Showdown: битва AI-систем за качество исследований
Как я сравнил топовые AI-модели для глубокого анализа данных и собственную разработкуПривет! Меня зовут Валера Ковальский, я CEO NDT by red_mad_robot. Недавно я протестировал ведущие AI-системы, которые способны проводить глубокие исследования, и делюсь с вами результатами.Зачем всё это
Угроза безопасности: как злоумышленники могут манипулировать AI-агентами
Новое исследование показывает, что AI-агенты с доступом в Интернет уязвимы для простых тактик манипулирования. Злоумышленники могут обманом заставить эти системы раскрывать личную информацию, загружать вредоносные файлы и отправлять мошеннические электронные письма — и всё это без каких-либо специальных знаний в области AI или программирования.
OpenAI пытается «не подвергать цензуре» ChatGPT
OpenAI изменяет подход к обучению моделей AI, чтобы открыто поддерживать «интеллектуальную свободу… независимо от того, насколько сложной или противоречивой может быть тема», — говорится в новой политике компании.
OpenAI отменяет выпуск своей AI-модели o3 в пользу «унифицированного» релиза нового поколения
OpenAI фактически отменила выпуск o3, которая должен был стать следующей крупной моделью AI компании, в пользу того, что генеральный директор Сэм Альтман называет «упрощённым» предложением продукта.В
Генеральный директор Anthropic Дарио Амодей предупреждает о «гонке» за пониманием AI по мере его усиления
Сразу после завершения AI Action Summit в Париже соучредитель и генеральный директор Anthropic Дарио Амодей назвал это мероприятие «упущенной возможностью». Он добавил, что «необходимо уделять больше внимания и действовать быстрее по нескольким направлениям, учитывая темпы развития технологий», в заявлении, опубликованном во вторник.
Проблемы языковых моделей при анализе длинных текстов: выводы исследования
В результате исследования, проведённого учёными из Мюнхенского университета Людвига-Максимилиана, Мюнхенского центра машинного обучения и Adobe Research, было установлено, что современные языковые модели искусственного интеллекта имеют ограничения при обработке и анализе больших объёмов текстовой информации.
Исследование предупреждает: развитие AI может привести к «постепенному ограничению наших возможностей»
Результаты нового исследования демонстрируют, что даже постепенное развитие искусственного интеллекта может со временем ослабить контроль человека над ключевыми системами общества. Это, в свою очередь, может иметь серьёзные последствия для безопасности людей.
Как небольшой набор данных и управление вычислениями могут улучшить работу языковых моделей
Новый подход показывает, что тщательно подобранные обучающие данные и гибкое управление вычислениями во время тестирования могут помочь AI-моделям более эффективно решать сложные задачи, требующие логического мышления.

