этика. - страница 2

Этические аспекты использования искусственного интеллекта в промышленности

Аннотация.

продолжить чтение

Эксперимент «Надежда» Рихтера: гимн силе духа или научная ошибка?

В мире психологии и мотивации свои «городские легенды» — эксперименты, выводы которых кочуют из книги в книгу, обрастая вдохновляющими историями. Один из них — опыт американского психофизиолога Курта Рихтера, проведенный в 1957 году и известный как эксперимент «Надежда». Его традиционная трактовка стала гимном силе человеческого духа: якобы вера в спасение способна творить чудеса. Но что, если копнуть глубже? Мой анализ привел меня к выводам, которые скорее ужасают, чем вдохновляют.

продолжить чтение

Нужна ли философия и этика для жизни и творчества?

ВведениеНарод у нас разносторонний и от вопросов: «Нужна ли математика программистам?» плавно переходит к статьям, типа: «Нужна ли философия инженерам?». Поэтому я тоже решил «вставить свои пять копеек» в эти дискуссии. В данном случае, речь пойдет о философии и этике.

продолжить чтение

Как оценить качество диалога в чате с помощью идей Аристотеля, этики Канта, условий Хабермаса и нейросети

Вы знакомы с тем ощущением, когда в чате диалог постепенно превращается в перепалку, аргументы уступают место сарказму, логика — голословным утверждениям, а попытка понять — желанию победить? Мне тоже это знакомо.Вместо того чтобы просто уйти в игнор или ввязываться в словесную дуэль, я попробовал другой путь. Я взял проверенные временем идеи (Аристотеля, Канта и Хабермаса) и превратил их в промпт «детектор качества диалога». Получившийся промпт я протестировал с помощью нейросетей — и стал получать объективную обратную связь о том, где заканчивается разумный обмен и начинается флуд.

продолжить чтение

Почему алгоритм плохо защищает от социальной инженерии: мысленный эксперимент в мире кантианцев-манипуляторов

Что, если самые надёжные системы защиты — двухфакторная аутентификация, тренинги по социнженерии, чёрные списки — на самом деле работают против нас? Что если каждое новое правило, каждый баннер «Осторожно, фишинг!» не укрепляет безопасность, а формирует в пользователе постоянное ощущение угрозы — и делает его уязвимее? Представьте мир, где все действуют разумно: логично, автономно, добродетельно.

продолжить чтение

Системы ценностей больших языковых моделей

Каждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет.Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.Введение

продолжить чтение

«Запах мысли» или «анонимность в эру нейросетей»

продолжить чтение

Как мы строим умный «файрвол» для LLM

продолжить чтение

Джейлбрейкаем чатботы: ChatGPT без фильтров

Майкл Скофилд знает, что иногда делать джейлбрейк моральноПривет!

продолжить чтение

Разум без поводка. Почему «этичный ИИ» не должен быть послушным

Что такое мораль?

продолжить чтение