Законодатели США направили OpenAI письмо с просьбой о доступе правительства
Демократы в Сенате вместе с независимым депутатом направили письмо генеральному директору OpenAI Сэму Альтману, в котором выразили обеспокоенность по поводу стандартов безопасности компании и практики трудоустройства по отношению к информаторам. В этом письме, впервые опубликованном газетой The Washington Post, подчеркивается несколько ключевых моментов, из которых особенно важен пункт 9. В нем спрашивается: «Обязуется ли OpenAI предоставить свою следующую базовую модель правительственным учреждениям США для тестирования, проверки, анализа и оценки перед развертыванием?»
В письме также содержится 11 других вопросов, на которые OpenAI следует обратить внимание. К ним относятся обязательство выделить 20% своих вычислительных мощностей на исследования безопасности и создание протоколов, предотвращающих кражу продуктов искусственного интеллекта злоумышленниками или иностранными противниками.
Регуляторный контроль и опасения, связанные с информаторами
Регуляторный контроль не является чем-то новым для OpenAI и более широкого сектора искусственного интеллекта. Это недавнее письмо было вызвано сообщениями осведомителей, утверждающих, что компания пошла на компромисс со стандартами безопасности для модели GPT-4 Omni, чтобы избежать задержек с ее выпуском на рынок. Информаторы также заявили, что попытки обсудить с руководством вопросы безопасности были встречены возмездием и якобы незаконными соглашениями о неразглашении информации. Эти опасения привели к жалобе, поданной в Комиссию по ценным бумагам и биржам в июне 2024 года.
Изучайте больше о мире криптовалют, инвестировании и трейдинге в академии Cryptemic.
После этих событий технологические гиганты Microsoft и Apple вышли из совета директоров OpenAI в июле, несмотря на значительные инвестиции Microsoft в OpenAI в размере 13 миллиардов долларов в 2023 году. На это решение повлияло усиление контроля со стороны регулирующих органов, с которым сталкивается OpenAI.
Страхи экзистенциальных угроз
Бывший сотрудник OpenAI Уильям Сондерс недавно сообщил, что покинул компанию из-за опасений по поводу потенциальной экзистенциальной угрозы, которую представляют продолжающиеся исследования. Сондерс сравнил потенциальное будущее развитие OpenAI с катастрофическим затоплением Титаника в 1912 году. Не беспокоясь о текущей версии ChatGPT OpenAI, Сондерс выразил обеспокоенность по поводу будущих версий и развития продвинутого сверхчеловеческого интеллекта.
Сондерс подчеркнул, что сотрудники сектора искусственного интеллекта должны иметь право предупреждать общественность о потенциально опасных возможностях, возникающих в результате быстрого развития синтетического интеллекта.
Эти события подчеркивают продолжающееся противоречие между инновациями в области искусственного интеллекта и необходимостью обеспечения соблюдения стандартов безопасности и этики. Пока OpenAI решает эти проблемы, пристальное внимание со стороны законодателей и бывших сотрудников подчеркивает острую необходимость прозрачности и подотчетности при развертывании мощных технологий искусственного интеллекта.
ДИСКЛЕЙМЕР
Вся информация, содержащаяся на нашем вебсайте, публикуется на принципах добросовестности и объективности, а также исключительно с ознакомительной целью. Читатель самостоятельно несет полную ответственность за любые действия, совершаемые им на основании информации, полученной на нашем вебсайте.
- 🏦 Kraken усиливается: сделка с Bitnomial за $550 млн меняет расстановку сил в деривативах
- 🐕 Dogecoin в ловушке: бычий сигнал оказался обманом?
- ✈️ GE Aerospace падает перед отчётом: фиксация прибыли или сигнал риска?
- 🐳 Dogecoin под давлением сопротивления: киты накапливают, но пробоя нет
- 🚀 Psyence Biomedical взлетает на 200%: политика сильнее фундаментала?

