Генеральный директор OpenAI призывает Китай помочь сформировать правила безопасности ИИ
🚀В заявлении, сделанном генеральным директором OpenAI Сэмом Альтманом, подчеркивается важность глобального сотрудничества и роль Китая в формировании барьеров искусственного интеллекта (ИИ) для обеспечения безопасности преобразующих новых систем. Альтман признает присутствие лучших специалистов в области ИИ в Китае и подчеркивает необходимость привлечения лучших умов со всего мира для решения задач, связанных с согласованием передовых систем ИИ.
Сектор искусственного интеллекта стал стратегической областью как для Китая, так и для Силиконовой долины, поскольку в исследования и разработки в области искусственного интеллекта направляются значительные инвестиции и таланты. Это событие также подчеркивает технологическое соперничество между двумя крупнейшими экономиками и напряженность в регулировании ИИ. Президент Китая Си Цзиньпин подчеркнул необходимость усиления государственного надзора для снижения рисков национальной безопасности, связанных с ИИ.
Выступление Альтмана на конференции в Пекине примечательно тем, что оно было организовано Пекинской академией искусственного интеллекта, известной организацией в секторе искусственного интеллекта Китая. Президент Microsoft Брэд Смит признал академию лидером в области инноваций в области искусственного интеллекта.
Важно отметить, что ChatGPT от OpenAI в настоящее время недоступен в Китае из-за нормативных ограничений и практики цензуры, которые ограничили доступ западных технологических гигантов на китайский рынок. В Китае действуют собственные сложные правила в отношении данных и алгоритмов, что затрудняет для иностранных компаний значительное присутствие в секторе искусственного интеллекта в стране.
В проекте правил Китая об алгоритмах и контенте указывается, что операторы платформ могут нести ответственность за соблюдение требований. Государственный совет также объявил о планах обсудить законодательство, связанное с ИИ, позднее в этом году.
Альтман упомянул о намерении OpenAI открыть исходный код большего количества своих моделей в будущем в рамках своих усилий по обеспечению безопасности ИИ. Однако он не указал конкретные сроки или модель этой инициативы с открытым исходным кодом.
💥 Стоит отметить, что во время своего глобального турне по продвижению управления ИИ у Альтмана возникли разногласия с регулирующими органами Европейского Союза в Лондоне по поводу предложенных законов об ИИ, которые возлагали бы на компании ответственность за использование их систем ИИ. Альтман заявил, что OpenAI может рассмотреть возможность выхода из региона, если такие законы будут приняты.

