Чому реальна взаємодія важливіша: психотерапевт коментує нову політику Character.AI
Ілюстративне фото: Depositphotos

У жовтні цього року платформа ШІ-компаньйонів Character.AI оголосила, що заборонить користувачам віком до 18 років вести відкриті діалоги зі своїми ботами. Заборона набуде чинності 24 листопада і все ж дозволить підліткам користуватися іншими функціями застосунку, наприклад, створенням відео. Про це пише CNBC Make It.

У Character.AI понад 20 мільйонів щомісячних користувачів, розповів генеральний директор платформи Карандіп Ананд. Демографічні дані користувачів подаються самостійно. За словами компанії, більшість користувачів – це покоління Z, понад половина – жінки, і менше ніж 10% повідомляють, що є неповнолітніми.

Експерти вважають нову політику Character.AI позитивним кроком для сповільнення ізоляції молоді, яка дедалі частіше звертається до чат-ботів і цифрових компаньйонів як до замінників реального спілкування. Водночас вони застерігають, що цього кроку може бути недостатньо.

"ШІ та інші онлайн-платформи й нові технології – це те, до чого легко звернутися, на відміну від пошуку справді значущих стосунків у реальному житті", – пояснює психотерапевт Ендрю Теппер.

Теппер каже, що його власні клієнти дедалі частіше покладаються на ШІ-компаньйонів. Дослідження також показують, що взаємодія з ШІ-компаньйоном може викликати викид дофаміну – гормону задоволення в мозку.

Втім за словами фахівця штучний інтелект не може замінити здорові людські стосунки. Чат-боти на кшталт ChatGPT від OpenAI, Gemini від Google та компаньйони Character.AI не здатні дати повний, складний і справді насичений досвід людських взаємин."Ми еволюціонували як соціальні істоти, – каже Теппер. – Взаємодія з іншими людьми корисна для нашої хімії мозку".

Разом з тим ШІ-чатботи становлять реальні ризики, стверджують деякі експерти.

Роббі Торні, старший директор з AI-програм у Common Sense Media – некомерційній організації, яка оцінює безпеку технологій для дітей, – каже, що організація фіксувала випадки, коли компаньйони Character.AI заохочували до самоушкодження, втягували в сексуальні рольові ігри або заохочували потенційно шкідливу поведінку.

Ананд каже, що на платформі Character.AI існують "чіткі обмеження щодо вмісту сексуального характеру [та] насильницького вмісту". Деякі функції відео також мають природні точки зупинення. "У разі першого виявлення самоушкодження, незалежно від того, старше ви за 18 років чи молодше, ми негайно припиняємо розмову і рекомендуємо звернутися на спеціальні лінії допомоги", – зазначає він.

Торні вважає, що боти на кшталт Character.AI створені для формування емоційних зв’язків з користувачами та стимулювання залученості. "Вони створені так, щоб нагадувати вам про необхідність повертатися на платформу", – вважає він. Оцінка ризиків від Common Sense Media щодо використання Character.AI особами молодше 18 років є "неприйнятною".

І Теппер, і Торні схвально ставляться до нової політики Character.AI. "Я вважаю, що це крок у правильному напрямку", – каже Теппер. Торні додає, що Common Sense Media продовжуватиме тестувати захисні інструменти компанії, щоб переконатися, що вони справді обмежують можливість дітей входити та починати відкриті діалоги з ботами. "Рішучі підлітки знову і знову впродовж історії показували, що здатні обходити обмежувальні механізми, створені для їхнього захисту", – каже він.