OpenAI заявляє, що майбутні моделі ШІ можуть допомагати у створенні біологічної зброї, хоча й не здатні робити це самостійно. Компанія працює над запобіжними заходами – деталі на Техно.
Компанія OpenAI вважає, що їхні майбутні моделі ШІ можуть допомогти в створенні біологічної зброї, що викликає занепокоєння щодо безпеки та етичних ризиків.
OpenAI підкреслює необхідність запобіжних заходів, щоб їхні моделі не були використані зловмисниками, і вважає, що вони мають бути дуже точно запрограмовані для розпізнавання небезпек.
Існує тривога, що такі моделі можуть стати інструментом для створення біологічної зброї урядами або іншими структурами, якщо потраплять у неправильні руки. Компанія OpenAI нещодавно заявила, що її майбутні моделі ШІ настільки просунуті, що можуть потенційно сприяти створенню нових біологічних видів зброї. Хоча це відкриває можливості для біомедичних досліджень, водночас викликає серйозні занепокоєння щодо безпеки та етичних ризиків, адже навіть аматори за допомогою таких технологій можуть відтворювати небезпечні біозагрози.
У своєму нещодавньому блозі OpenAI зазначила, що розробка все більш досконалих моделей ШІ, які матимуть позитивні застосування, як-от біомедичні дослідження та біозахист, вимагає балансу між науковим прогресом і запобіганням доступу до шкідливої інформації, інформує 24 Канал.