- Регистрация
- 18.01.2023
- Сообщения
- 1 619
- Реакции
- 290
- Депозит
- 𝟎.𝟓 𝐁𝐓𝐂
- Сделок через Гаранта
- 135
Компания психологической поддержки Koko провела эксперимент, в котором искусственный интеллект провёл психологические консультации для 4000 человек без их предварительного уведомления.
Koko — это некоммерческая платформа по защите психического здоровья, которая связывает нуждающихся в психиатрической помощи с волонтерами через Telegram и Discord.
На сервере Discord Koko Cares пользователь отправляет сообщение боту Koko, который задает несколько вопросов с несколькими вариантами ответов (например, «Какая самая мрачная мысль у вас есть по этому поводу?»). Затем бот анонимно делится сообщением пользователя с волонтёром на сервере, который может анонимно ответить коротким сообщением, автоматически сгенерированным языковой моделью GPT-3. Компания продемонстрировала работу Koko на видео.
По словам компании, ИИ использовался в 30 000 сообщениях. Ответы, составленные ИИ (и контролируемые людьми), были оценены значительно выше, чем сообщения, написанные людьми самостоятельно. Время ответа сократилось на 50% и составило менее 1 минуты.
Многие критики назвали эксперимент неэтичным, поскольку в нём отсутствует информированное согласие пользователей. Koko нарушила правила, призванные защитить уязвимых людей от вредных или оскорбительных методов исследования. В США запрещено проводить исследования на людях без юридически оформленного согласия.
Koko — это некоммерческая платформа по защите психического здоровья, которая связывает нуждающихся в психиатрической помощи с волонтерами через Telegram и Discord.
На сервере Discord Koko Cares пользователь отправляет сообщение боту Koko, который задает несколько вопросов с несколькими вариантами ответов (например, «Какая самая мрачная мысль у вас есть по этому поводу?»). Затем бот анонимно делится сообщением пользователя с волонтёром на сервере, который может анонимно ответить коротким сообщением, автоматически сгенерированным языковой моделью GPT-3. Компания продемонстрировала работу Koko на видео.
По словам компании, ИИ использовался в 30 000 сообщениях. Ответы, составленные ИИ (и контролируемые людьми), были оценены значительно выше, чем сообщения, написанные людьми самостоятельно. Время ответа сократилось на 50% и составило менее 1 минуты.
Многие критики назвали эксперимент неэтичным, поскольку в нём отсутствует информированное согласие пользователей. Koko нарушила правила, призванные защитить уязвимых людей от вредных или оскорбительных методов исследования. В США запрещено проводить исследования на людях без юридически оформленного согласия.