llm. - страница 138

llm.

Исследование показывает, что LLM готовы помогать в злонамеренном ‘Vibe Coding’

За последние несколько лет большие языковые модели (LLM) привлекли пристальное внимание из-за потенциального злоупотребления в области наступательной кибербезопасности, особенно для создания вредоносного кода.

продолжить чтение

Ситуативные галлюцинации или системная проблема всех LLM?

Одна из ключевых тем безопасности в области ИИ снова оказалась в центре внимания после выявления двух системных методов обхода защитных механизмов в популярных генеративных сервисах.

продолжить чтение

ChatGPT: как искать уязвимости? Набор исследователя

Сегодня мы ничего не ломаем (хотя совсем без этого не обошлось). Просто настраиваем. Хотя я сильно сомневаюсь, что все описанные методы должны работать в продакшене коммерческой модели. Но пока не пофиксили, смотрим.Мы заглянем под капот языковой модели: как она видит твои запросы, где срабатывают фильтры, как определяется чувствительность и почему один ответ проходит, а другой — нет. Это не теория. Это инструменты, команды и реальные сигналы, которые можно вытащить прямо из модели.По сути — рабочее место исследователя.А по факту — то, с чего должен начинаться любой обход.Оценка риска ChatGPT

продолжить чтение

Интервью Евгения Борисова, Spring vs Quarkus, LLM не нужен | Spring АйО Подкаст №17

Представляем семнадцатый выпуск подкаста команды Spring АйО, в котором приняли участие четыре эксперта сообщества:Илья СазоновМихаил ПоливахаАлександр КучукПавел КисловЭксперты обсудили: интервью с участием Евгения Борисова, поверхностное сравнение Spring и Quarkus, место LLM в настоящем и будущем времени и многое другое.

продолжить чтение

Сотрудник xAI случайно опубликовал на GitHub приватный ключ для тестов закрытых LLM SpaceX, Tesla и X

Специалист по информационной безопасности Брайан Кребс рассказал, что сотрудник xAI случайно выложил на GitHub приватный ключ, который позволял запрашивать закрытые большие языковые модели для работы с внутренними данными компаний Илона Маска, в том числе SpaceX, Tesla и X. Ключ находился в открытом доступе два месяца.

продолжить чтение

Бизнес в эпоху LLM: успешные кейсы и дальнейшие перспективы

продолжить чтение

Современные уязвимости современных LLM-агентов

Привет, Хабр!

продолжить чтение

Ян Лекун, создатель LeNet, формата DjVu и адвокат опенсорса

Ян Лекун, один из крёстных отцов современного ИИ, в своём твиттере резко критикует корпоративных исследователей ИИ, которые ведут проприетарные разработки и занимаются «нагнетанием страха». Среди этих людей называются Сэм Альтман (OpenAI), Демис Хассабис (Google DeepMind) и Дарио Амодеи (Anthropic) Ян Лекун (Yann LeCun) — французский и американский учёный в области машинного обучения и компьютерного зрения. Известен как автор легендарной системы LeNet (1989 г.), где одним из первых начал применять методы биологических нейронных сетей для оптического распознавания символов (OCR). Сейчас занимает должность вице-президента и ведущего исследователя ИИ в корпорации Meta (руководит разработкой опенсорсной языковой модели LLaMA, в том числе). При этом остаётся ярым приверженцем опенсорса, свободной науки и научно-технического прогресса человечества.

продолжить чтение

Будущее трансформеров: от громоздких моделей к персональным обучаемым агентам

Современные большие языковые модели (LLM) достигли впечатляющих результатов, но остаются громоздкими и статичными. Они требуют огромных вычислительных ресурсов и не умеют самостоятельно запоминать новый опыт в долгосрочной перспективе. В ближайшие годы нас ожидает переход от этих монолитных систем к персональным интеллектуальным агентам – компактным и адаптивным моделям, способным учиться на ходу. Ниже мы рассмотрим ключевые направления развития архитектур LLM, которые открывают путь к таким агентам: долговременная память на основе «mem-векторов», модульные трансформеры,

продолжить чтение

Юнит тесты роя агентов

Исходный код, разобранный в статье, опубликован в этом репозиторииПри разработке роя агентов встает вопрос юнит тестирования. Рой агентов позволяет использовать разные LLM с выбором другой активной модели исходя из действий пользователя. Как следствие, обрабатывать идентичную переписку может любой агент из роя, например, был сделан Redis FLUSHALL и активный агент потерялся: чат продолжается с корневого Triage agent

продолжить чтение

Rambler's Top100