Технологии

ChatGPT: конфиденциальность под вопросом. Почему ему нельзя доверять как психологу?

Поделиться:

Стали бы вы делиться своей историей интернета публично? Конечно нет. Даже ваши неперсональные поиски — это ваше. А как насчёт того, чтобы довериться неподготовленному роботу для терапии, настроенной на вашу уникальную психику? Тоже твёрдое "нет". Но ChatGPT совершил нечто более мощное, чем любая из его предшественников-ИИ — он построил доверие!

ChatGPT — это эффективный инструмент, экономящий время, для ряда профессиональных и развлекательных задач — но он не готов быть вашим доверенным собеседником и далёк от такой приватности, в которую многие были введены.

Итак, прежде чем вы начнёте выливать свою личную информацию в эту строку поиска, узнайте о последних разоблачениях и предупреждениях о вашем "дружелюбном" генеративном ИИ-инструменте по соседству.

Речь идёт о доверии

Некоторые из нас используют ChatGPT уже несколько лет, и все мы видели его недостатки в начале. Даже самые простые запросы часто содержали вопиющие ошибки. Но в истинном стиле ИИ он учился, развивался, и многие большие пробелы в его генеративных возможностях были заполнены. Перенесёмся в сегодняшний день, и ChatGPT — это уже совершенно новый зверь, способный выдавать более точные, детализированные результаты на более сложные запросы.

Это создало доверие, и в этом заключается проблема. ChatGPT и другие генеративные ИИ-инструменты ещё далеки от совершенства, и на них нельзя полностью полагаться. Но когда у людей накапливается достаточно положительного опыта с его результатами, это укрепляет и подтверждает уровень доверия, который не соответствует его реальным возможностям. И это ложное чувство безопасности оставило тысячи уязвимыми…

Будьте осторожны с тем, что вы ищете

Недавно стало известно, что тысячи приватных разговоров с ChatGPT появились в результатах поиска Google. Функция "Поделиться" в ChatGPT позволяла пользователям генерировать ссылку для обмена беседами. Мы и не подозревали, что эти ссылки индексируются поисковыми системами, что привело к случайному раскрытию. С тех пор OpenAI отключил эту функцию и работает над удалением общедоступного индексируемого контента, но ущерб уже нанесён.

Помимо очевидного риска утечек данных и несанкционированного доступа, ваши разговоры также хранятся на серверах ChatGPT, к которым могут получить доступ и просматривать люди-тренеры ИИ. Вы можете отказаться от использования ваших чатов для целей обучения — и если вы не хотите, чтобы их кто-то ещё читал, вам, вероятно, стоит это сделать. Тем не менее, по-прежнему рекомендуется не делиться какой-либо конфиденциальной личной информацией, которую вы не хотели бы, чтобы видели другие люди. Несмотря на продвинутые возможности ChatGPT, он всё ещё набирает обороты как развивающийся инструмент.

Это не личный терапевт

Всё больше людей используют ChatGPT для терапии из-за его способности давать безоценочные, мгновенные и бесплатные ответы. Это вынудило генерального директора OpenAI Сэма Олтмана вмешаться с публичным предупреждением, в котором он сказал: "В то время как беседы с реальными терапевтами, врачами и юристами защищены юридическими нормами, то же самое не относится к разговорам с чат-ботами, по крайней мере, на данный момент".

Здесь есть два ключевых риска. Во-первых, системам ИИ не хватает контекстуального понимания, которым обладают люди, что делает их более подверженными случайному раскрытию конфиденциального содержимого. Во-вторых, различные исследования показывают, что ИИ-терапевты в виде чат-ботов — будь то ChatGPT или другие — не готовы нести ответственность консультанта и могут фактически способствовать вредным стигмам в области психического здоровья.

Возьмём, к примеру, обсессивно-компульсивное расстройство (ОКР). Хотя ChatGPT как инструмент не является по своей сути опасным, он может непреднамеренно усиливать компульсии ОКР, такие как поиск подтверждений, и поощрять вредное поведение. Хотя ИИ можно безопасно использовать для снижения тревожности, он не терпит неопределённости и должен сочетаться с самосознанием, границами и лечением под руководством человека.

Правила взаимодействия

Итак, какой здесь ключевой вывод? "Не печатайте в ChatGPT ничего, чем вы не стали бы делиться публично в интернете" — это почти всё объясняет! Но если конкретнее, наш совет — не делитесь ничем из следующего с ИИ-чат-ботом или компанией, которая не проверена и не заслуживает доверия — как, например, ваш банковский провайдер:

  • Персонально идентифицируемая информация
  • Финансовая и банковская информация
  • Пароли и учётные данные для входа
  • Личная или конфиденциальная информация
  • Проприетарная информация или интеллектуальная собственность

Сёрфите безопасно с Fasthosts

Ищете путеводный свет в сложном и порой обманчивом цифровом мире? Fasthosts прокладывает путь для бизнеса всех форм и размеров уже более четверти века — будь то с помощью нашей молниеносной хостинговой поддержки или нашей надёжной кибербезопасности. И когда вам понадобится наша помощь, под рукой всегда будет один из наших экспертов-людей, готовый помочь!