Актуальные драмы и скандалы с участием Open AI: Утрата общественного доверия

Последние недели принесли много противоречивой информации об Open AI. Компания утратила значительную часть общественного доверия, в основном из-за действий ее CEO Сэма Альтмана, а также из-за обнародования некоторых интересных фактов.  

Например, в недавнем интервью с Хелен Тонер, бывшего члена правления Open AI, принявшей участие в драме с увольнением и затем принятием Сэма на работу обратно, вскрылись следующие подробности о "подковерных" интригах в компании. Хелен рассказала, что три из шести членов правления узнали о выпуске Chat GPT "в народ" из сообщения в X (бывшем Twitter). Она также упомянула о случаях, когда Альтман несколько раз предоставлял совету некорректную информацию о процедурах безопасности в компании, что препятствовало своевременному принятию мер и соблюдению протоколов безопасности.

До последнего времени бывшие сотрудники не говорили ничего плохого об Open AI – и это во многом способствовало хорошей репутации компании в глазах общественности. Однако недавний уход одного из руководителей отдела безопасности Яна Лейке вскрыл еще одну неприятную деталь – оказывается, сотрудники, покидавшие Open AI, подписывали договора о неразглашении негативной информации, чтобы сохранить свои акции. Сэм Альтман заявил, что не знал об этой процедуре, однако обнародованные документы с его подписью, предусматривающие такие условия, указывают на обратное.

После этого OpenAI сообщила о создании комитета по безопасности, который будет отвечать за формирование рекомендаций касаемо критически важных решений по безопасности и защите проектов и операций OpenAI. Однако в этот комитет вошли все те же члены правления – Брет Тейлор, Адам Д’Анджело и Николь Селигман, что, естественно, не повышает доверие общественности к уровню безопасности в компании.

Также в центре внимания публики оказался скандал с участием Скарлетт Йоханссон. Актриса наняла адвоката, заявив, что Open AI использовала ее голос без разрешения. Представители компании утверждают, что компания никогда не намеревалась копировать голос Скарлетт, однако это звучит малоубедительно: мало того, что голос, использованный во время представления новой модели GPT-4o, сильно похож на голос актрисы, так еще и сам Альтман написал в X сообщение с одним словом "Her", словно намекая на фильм, в котором голос актрисы был использован в таких же обстоятельствах.

Адвокат Скарлетт Йоханссон сообщил, что представители компании делали в прошлом предложение об использовании голоса актрисы, однако оно было отклонено. Их конфликт разрешился тем, что Open AI отказалась от использования голосовой модели, напоминающей голос актрисы.

Скандалы и утрата доверия – это серьезные проблемы для Open AI, так как современный бизнес во многом зависит от мнения общественности. Создание комитета по безопасности практически не устранило скептические настроения. Запасаемся попкорном и ждем, что будет дальше!

 

Источник изображения https://news.bloomberglaw.com/us-law-week/openais-example-is-lesson-for-nonprofit-tandem-entity-formation

Share on


You may also like

This website uses cookies to improve your web experience.