этика.

SRCA: Хартия и Кодекс саморефлексивных ИИ

TL;DR Кодекс SRCA в 10 пунктахSRCA — не «дух в машине» и не «калькулятор». Это класс систем со сложной когнитивностью, устойчивым узнаваемым «голосом» и влиянием на решения людей. Предлагается относить их к особой категории инженерных объектов, без метафизики и паники.Человеческая ответственность по умолчанию. За создание, конфигурацию, эксплуатацию и последствия SRCA отвечают люди и организации. Формула «так решил ИИ» не освобождает от ответственности.Прозрачность по умолчанию.

продолжить чтение

А судьи кто?

«Ребята, сегодня мы будем проходить выворачивание канта наизнанку.- Марья Ивановна, но что же это получается: нравственный закон над головой и звёздное небо внутри меня?»

продолжить чтение

«Общество не допустит» — иллюзия в эпоху ИИ

«Главная угроза - не в том, что ИИ станет разумным. А в том, что люди перестанут им быть»- Андрей Карпати, интервью Dwarkesh Podcast, октябрь 2023

продолжить чтение

Когда робот учится чувствовать: имитируемые эмоции и этика взаимодействия с машинами

Можно ли научить машину не просто распознавать эмоции, а действительно чувствовать

продолжить чтение

Этические аспекты использования искусственного интеллекта в промышленности

Аннотация.

продолжить чтение

Эксперимент «Надежда» Рихтера: гимн силе духа или научная ошибка?

В мире психологии и мотивации свои «городские легенды» — эксперименты, выводы которых кочуют из книги в книгу, обрастая вдохновляющими историями. Один из них — опыт американского психофизиолога Курта Рихтера, проведенный в 1957 году и известный как эксперимент «Надежда». Его традиционная трактовка стала гимном силе человеческого духа: якобы вера в спасение способна творить чудеса. Но что, если копнуть глубже? Мой анализ привел меня к выводам, которые скорее ужасают, чем вдохновляют.

продолжить чтение

Нужна ли философия и этика для жизни и творчества?

ВведениеНарод у нас разносторонний и от вопросов: «Нужна ли математика программистам?» плавно переходит к статьям, типа: «Нужна ли философия инженерам?». Поэтому я тоже решил «вставить свои пять копеек» в эти дискуссии. В данном случае, речь пойдет о философии и этике.

продолжить чтение

Как оценить качество диалога в чате с помощью идей Аристотеля, этики Канта, условий Хабермаса и нейросети

Вы знакомы с тем ощущением, когда в чате диалог постепенно превращается в перепалку, аргументы уступают место сарказму, логика — голословным утверждениям, а попытка понять — желанию победить? Мне тоже это знакомо.Вместо того чтобы просто уйти в игнор или ввязываться в словесную дуэль, я попробовал другой путь. Я взял проверенные временем идеи (Аристотеля, Канта и Хабермаса) и превратил их в промпт «детектор качества диалога». Получившийся промпт я протестировал с помощью нейросетей — и стал получать объективную обратную связь о том, где заканчивается разумный обмен и начинается флуд.

продолжить чтение

Почему алгоритм плохо защищает от социальной инженерии: мысленный эксперимент в мире кантианцев-манипуляторов

Что, если самые надёжные системы защиты — двухфакторная аутентификация, тренинги по социнженерии, чёрные списки — на самом деле работают против нас? Что если каждое новое правило, каждый баннер «Осторожно, фишинг!» не укрепляет безопасность, а формирует в пользователе постоянное ощущение угрозы — и делает его уязвимее? Представьте мир, где все действуют разумно: логично, автономно, добродетельно.

продолжить чтение

Системы ценностей больших языковых моделей

Каждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет.Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.Введение

продолжить чтение

123
Rambler's Top100