OpenAI провела зачистку ChatGPT: почему заблокировали аккаунты из Китая и Северной Кореи
OpenAI провела масштабную чистку аккаунтов, использующих ChatGPT, заблокировав доступ пользователям из Китая и Северной Кореи. По данным компании, это связано с выявленными случаями потенциально вредоносной деятельности, связанной с кибератаками, автоматизированным сбором данных и обходом ограничений.
Почему OpenAI начала блокировки
Компания не впервые сталкивается с проблемой несанкционированного использования ChatGPT. С момента запуска языковая модель привлекла внимание как обычных пользователей, так и различных групп, использующих ИИ для создания фишинговых схем, написания вредоносного кода и автоматизированного сбора информации.
Недавно аналитики OpenAI обнаружили, что значительное число подозрительных аккаунтов было зарегистрировано в регионах, где ChatGPT официально не работает. Речь идет, прежде всего, о Китае и Северной Корее, где сервис заблокирован на государственном уровне. Тем не менее, пользователи из этих стран обходили запреты через VPN и сторонние прокси-серверы.
По словам представителей OpenAI, некоторые из этих аккаунтов использовались для автоматизированного тестирования ChatGPT с целью извлечения данных, создания текстов, имитирующих реальную пользовательскую активность, и генерации контента, который мог бы обходить фильтры модерации.
Какие риски стоят за этим
Использование нейросетей в киберугрозах уже стало одной из ключевых проблем для крупных технологических компаний. Искусственный интеллект позволяет злоумышленникам:
- автоматизировать создание фишинговых писем, которые сложно отличить от настоящих;
- разрабатывать новые методы обхода систем кибербезопасности;
- собирать большие объемы данных из открытых источников для последующей аналитики.
Особую обеспокоенность вызывает использование ИИ в странах с жестким контролем над информацией. Китай давно ведет разработку собственных нейросетей, а Северная Корея известна попытками применять цифровые технологии для обхода санкций и финансирования госпрограмм.
Что будет дальше
OpenAI подтвердила, что компания продолжит мониторинг подозрительной активности и при необходимости будет расширять список заблокированных аккаунтов. Также ведется работа по улучшению механизмов защиты, чтобы предотвращать подобные случаи на ранних этапах.
Эти действия вновь поднимают дискуссию о том, насколько безопасно развитие ИИ и как его можно использовать не только в коммерческих, но и в политических и военных целях. Tech-сообщество внимательно следит за ситуацией, ожидая дальнейших шагов как со стороны OpenAI, так и других разработчиков ИИ.
Реклама. Информация о рекламодателе по ссылкам в статье.