Исследование: 250 вредоносных документов могут вызвать сбой в работе языковой модели с 13 млрд параметров
Специалисты Anthropic совместно с Институтом безопасности ИИ Великобритании, Институтом Алана Тьюринга и другими исследовательскими центрами провели эксперимент, который показал, что всего 250 вредоносных документов способны вызвать сбой в работе языковой модели с 13 млрд параметров. Таким образом, для появления багов достаточно «отравить» всего 0,00016% обучающего корпуса.
Goldman Sachs: у ИИ уже закончились данные для обучения
Искусственный интеллект исчерпал доступные для обучения данные, рассказал директор по данным и руководитель отдела разработки данных Goldman Sachs Нима Рафаэль. По его словам, этот дефицит уже может оказывать влияние на то, как создаются новые системы ИИ.
Стартап Thinking Machines представил инструмент автоматизации создания пользовательских моделей ИИ
Стартап Thinking Machines Lab, основанный известными исследователями из OpenAI, представил свой первый продукт — инструмент Tinker, который автоматизирует создание пользовательских передовых моделей искусственного интеллекта.
Anker предложила платить владельцам камер Eufy за обмен видеороликами для обучения своего ИИ
Китайская Anker предложила владельцам камер видеонаблюдения Eufy по $2 за каждую запись, которые затем будут использованы для обучения систем искусственного интеллекта компании. Таким образом производитель камер видеонаблюдения намерен улучшить возможности своих систем более эффективно обнаруживать злоумышленников, угоняющих автомобили и крадущих посылки.
Путь к AGI: почему одного машинного обучения недостаточно и нужны принципы психологии
В современных дискуссиях об Искусственном Общем Интеллекте (AGI) часто упускается ключевой вопрос: что отличает просто мощный алгоритм от действительно сознающего разума?Данная статья предлагает взглянуть на эту проблему через термины и концепции психологии — в частности, советской школы психологии развития . Такой подход позволяет структурировать создание AGI не как инженерную задачу, а как задачу «воспитания» искусственной Личности.1. Эмоционально-рефлекторный «мозг»: основа, но не разумЛюбой сложный вычислительный механизм, лишённый свойств Личности, не обладает сознанием. Он действует на основе:
Приложение Neon Mobile платит пользователям до $30 в день за продажу их данных компаниям ИИ
Приложение Neon Mobile для записи звонков, которое занимает второе по популярности место в американском App Store, платит пользователям до $30 в день за продажу их данных компаниям, занимающимся искусственным интеллектом.
LinkedIn готовится начать обучение своего ИИ на профилях пользователей
C 3 ноября социальная сеть LinkedIn начнёт использовать профили некоторых пользователей, публикации, резюме и публичную активность для обучения своих моделей искусственного интеллекта. Эта функция будет включена по умолчанию, поэтому пользователям придётся активно отказываться от неё через настройки. Собранные до этого момента данные будут храниться в среде обучения ИИ.
CAIL: критическая ИИ-грамотность — как отличать хайп от теории
Недавно запущена академическая инициатива Critical AI Literacy (CAIL) — проект о критической ИИ-грамотности с курсами, событиями и материалами для преподавателей, студентов и практиков. Стартовая страница: https://olivia.science/ai, описание проекта Radboud University: https://www.ru.nl/en/research/research-projects/critical-ai-literacy-cail.Идея CAIL проста: меньше антропоморфизма и рекламных обещаний, больше чётких формулировок, прозрачных методов, обозначенных ограничений и воспроизводимых результатов.О чём CAIL
xAI назначила 20-летнего студента главой команды аннотации данных
Стартап Илона Маска xAI назначил 20-летнего студента Диего Пачини руководителем команды аннотации данных, которая отвечает за обучение искусственного интеллекта Grok.

