В США проверят влияние ИИ-чат-ботов на детей от OpenAI, Meta и Google

Федеральная торговая комиссия (FTC) США инициировала расследование в отношении семи ведущих технологических компаний, включая OpenAI, Alphabet, Meta, xAI и Snap. Регулятор намерен выяснить, как чат-боты, созданные на основе искусственного интеллекта, могут влиять на безопасность детей и подростков.
В ведомстве отметили, что чат-боты, работающие на базе генеративного ИИ, способны имитировать человеческое общение и выстраивать межличностные отношения. Цель исследования — оценить, насколько адекватно компании проанализировали риски, когда их технологии выступают в роли «компаньонов» для юных пользователей. Особое внимание будет уделено методам монетизации, разработке цифровых персонажей, использованию персональных данных и соблюдению правил сообщества.
«Защита детей в интернете является главным приоритетом, равно как и содействие инновациям в важнейших секторах нашей экономики», — заявил председатель FTC Эндрю Фергюсон. Он подчеркнул важность изучения последствий использования чат-ботов по мере развития ИИ, чтобы США сохраняли лидерство в этой новой отрасли. Уточняется, что данная проверка является широкомасштабным исследованием и не преследует конкретных правоохранительных целей.
Компании начали реагировать на запрос регулятора. В OpenAI сообщили, что безопасность остается их главным приоритетом, и выразили готовность к конструктивному взаимодействию с комиссией. Представитель Snap также заявил о поддержке инициативы, отметив, что компания разделяет «внимание FTC к обеспечению продуманной разработки генеративного ИИ». О готовности к сотрудничеству заявили и в Character Technologies, операторе Character.AI.
В свою очередь, корпорация Meta отказалась от комментариев по данному вопросу. От компаний Alphabet и xAI публичных заявлений на момент публикации не поступало.