Anthropic послаблює зобов'язання щодо безпеки ШІ, викликаючи новий формат конкуренції з OpenAI

GateNews

25 лютого повідомляється, що Anthropic нещодавно скоригувала свою політику безпеки штучного інтелекту, видаливши раніше обіцянку заборонити тренувати високорівневі системи штучного інтелекту до повного впровадження заходів безпеки. Це зміна дає Anthropic більшу гнучкість у конкуренції з OpenAI, Google та xAI, а також викликає дискусії у галузі щодо балансу між швидким розвитком штучного інтелекту та забезпеченням безпеки.

Головний науковий співробітник Anthropic Jared Kaplan зазначив, що припинення тренувань не вирішує справжніх проблем безпеки, а в умовах швидкого просування конкурентів одностороння пауза у розробках є нерозумною. Компанія підкреслює, що підвищить прозорість, публікуючи передові дорожні карти безпеки та регулярні звіти про ризики, а у разі виявлення серйозних загроз катастрофи відкладе розробки.

Вищий дослідник політики в RAND Edward Geist зазначив, що концепція безпеки штучного інтелекту на ранніх етапах виникла з уваги до потужних AI з боку окремих груп, але сучасні великі мовні моделі (LLM) змінюють цю концепцію. Зміни у політичних формулюваннях посилають сигнал інвесторам і законодавцям: компанії прагнуть зберегти економічну конкурентоспроможність і водночас управляти ризиками.

OpenAI також у 2024 році змінила своє місію, видаливши слово «безпека» і сформулювавши ціль як «забезпечити, щоб загальний штучний інтелект приносив користь всьому людству». Ці серії коригувань свідчать про перехід галузі до більш гнучких і масштабованих стратегій.

Нещодавно Anthropic завершила залучення 30 мільярдів доларів інвестицій, оцінюючи компанію приблизно у 380 мільярдів доларів; OpenAI також збирає до 100 мільярдів доларів. У цьому контексті компанії штучного інтелекту стикаються з геополітичною конкуренцією і розглядом урядових контрактів. Питання щодо подальшої співпраці з Anthropic Міністерство оборони США ще не вирішило, що робить політику більш обережною і стратегічною.

Загалом, коригування політик Anthropic і OpenAI ознаменовують новий етап у боротьбі між швидким розвитком штучного інтелекту та регулюванням безпеки, а також відображають гнучкість стратегій компаній під тиском капіталу і політичних факторів.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів