Законодатели США направили OpenAI письмо с просьбой о доступе правительства

Демократы в Сенате вместе с независимым депутатом направили письмо генеральному директору OpenAI Сэму Альтману, в котором выразили обеспокоенность по поводу стандартов безопасности компании и практики трудоустройства по отношению к информаторам. В этом письме, впервые опубликованном газетой The Washington Post, подчеркивается несколько ключевых моментов, из которых особенно важен пункт 9. В нем спрашивается: «Обязуется ли OpenAI предоставить свою следующую базовую модель правительственным учреждениям США для тестирования, проверки, анализа и оценки перед развертыванием?»

В письме также содержится 11 других вопросов, на которые OpenAI следует обратить внимание. К ним относятся обязательство выделить 20% своих вычислительных мощностей на исследования безопасности и создание протоколов, предотвращающих кражу продуктов искусственного интеллекта злоумышленниками или иностранными противниками.

Регуляторный контроль и опасения, связанные с информаторами
Регуляторный контроль не является чем-то новым для OpenAI и более широкого сектора искусственного интеллекта. Это недавнее письмо было вызвано сообщениями осведомителей, утверждающих, что компания пошла на компромисс со стандартами безопасности для модели GPT-4 Omni, чтобы избежать задержек с ее выпуском на рынок. Информаторы также заявили, что попытки обсудить с руководством вопросы безопасности были встречены возмездием и якобы незаконными соглашениями о неразглашении информации. Эти опасения привели к жалобе, поданной в Комиссию по ценным бумагам и биржам в июне 2024 года.

Изучайте больше о мире криптовалют, инвестировании и трейдинге в академии Cryptemic.

После этих событий технологические гиганты Microsoft и Apple вышли из совета директоров OpenAI в июле, несмотря на значительные инвестиции Microsoft в OpenAI в размере 13 миллиардов долларов в 2023 году. На это решение повлияло усиление контроля со стороны регулирующих органов, с которым сталкивается OpenAI.

Страхи экзистенциальных угроз
Бывший сотрудник OpenAI Уильям Сондерс недавно сообщил, что покинул компанию из-за опасений по поводу потенциальной экзистенциальной угрозы, которую представляют продолжающиеся исследования. Сондерс сравнил потенциальное будущее развитие OpenAI с катастрофическим затоплением Титаника в 1912 году. Не беспокоясь о текущей версии ChatGPT OpenAI, Сондерс выразил обеспокоенность по поводу будущих версий и развития продвинутого сверхчеловеческого интеллекта.

Сондерс подчеркнул, что сотрудники сектора искусственного интеллекта должны иметь право предупреждать общественность о потенциально опасных возможностях, возникающих в результате быстрого развития синтетического интеллекта.

Эти события подчеркивают продолжающееся противоречие между инновациями в области искусственного интеллекта и необходимостью обеспечения соблюдения стандартов безопасности и этики. Пока OpenAI решает эти проблемы, пристальное внимание со стороны законодателей и бывших сотрудников подчеркивает острую необходимость прозрачности и подотчетности при развертывании мощных технологий искусственного интеллекта.

ДИСКЛЕЙМЕР

Вся информация, содержащаяся на нашем вебсайте, публикуется на принципах добросовестности и объективности, а также исключительно с ознакомительной целью. Читатель самостоятельно несет полную ответственность за любые действия, совершаемые им на основании информации, полученной на нашем вебсайте.

Добавить комментарий

Больше на Cryptemic.com

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше