Почему реальное взаимодействие важнее: психотерапевт комментирует новую политику Character.AI
В октябре этого года платформа ИИ-компаньонов Character.AI объявила, что запретит пользователям в возрасте до 18 лет вести открытые диалоги со своими ботами. Запрет вступит в силу 24 ноября и все же позволит подросткам пользоваться другими функциями приложения, например, созданием видео. Об этом пишет CNBC Make It.
У Character.AI более 20 миллионов ежемесячных пользователей, рассказал генеральный директор платформы Карандип Ананд. Демографические данные пользователей подаются самостоятельно. По словам компании, большинство пользователей – это поколение Z, более половины – женщины, и менее 10% сообщают, что являются несовершеннолетними.
Эксперты считают новую политику Character.AI позитивным шагом для замедления изоляции молодежи, которая все чаще обращается к чат-ботам и цифровым компаньонам как к заменителям реального общения. В то же время они предупреждают, что этого шага может быть недостаточно.
"ИИ и другие онлайн-платформы и новые технологии – это то, к чему легко обратиться, в отличие от поиска действительно значимых отношений в реальной жизни", – объясняет психотерапевт Эндрю Теппер.
Теппер говорит, что его собственные клиенты все чаще полагаются на ИИ-компаньонов. Исследования также показывают, что взаимодействие с ИИ-компаньоном может вызвать выброс дофамина – гормона удовольствия в мозге.
Впрочем, по словам специалиста, искусственный интеллект не может заменить здоровые человеческие отношения. Чат-боты типа ChatGPT от OpenAI, Gemini от Google и компаньоны Character.AI не способны дать полный, сложный и действительно насыщенный опыт человеческих взаимоотношений. "Мы эволюционировали как социальные существа, – говорит Теппер. – Взаимодействие с другими людьми полезно для нашей химии мозга".
Вместе с тем ИИ-чатботы представляют реальные риски, утверждают некоторые эксперты.
Робби Торни, старший директор по AI-программам в Common Sense Media – некоммерческой организации, которая оценивает безопасность технологий для детей, – говорит, что организация фиксировала случаи, когда компаньоны Character.AI поощряли самоповреждения, вовлекали в сексуальные ролевые игры или поощряли потенциально вредное поведение.
Ананд говорит, что на платформе Character.AI существуют "четкие ограничения в отношении контента сексуального характера [и] насильственного контента". Некоторые функции видео также имеют естественные точки остановки. "При первом обнаружении самоповреждения, независимо от того, старше вы 18 лет или младше, мы немедленно прекращаем разговор и рекомендуем обратиться на специальные линии помощи", – отмечает он.
Торни считает, что боты типа Character.AI созданы для формирования эмоциональных связей с пользователями и стимулирования вовлеченности. "Они созданы так, чтобы напоминать вам о необходимости возвращаться на платформу", – считает он. Оценка рисков от Common Sense Media в отношении использования Character.AI лицами младше 18 лет является "неприемлемой".
И Теппер, и Торни одобряют новую политику Character.AI. "Я считаю, что это шаг в правильном направлении", – говорит Теппер. Торни добавляет, что Common Sense Media будет продолжать тестировать защитные инструменты компании, чтобы убедиться, что они действительно ограничивают возможность детей входить и начинать открытые диалоги с ботами. "Решительные подростки снова и снова на протяжении истории показывали, что способны обходить ограждающие механизмы, созданные для их защиты", – говорит он.
Комментарии