Євгеній Демківський, автор новин видання “Межа” та ентузіаст у сфері технологій, кіно та ігор, з особливою пристрастю до останніх, аналізує ініціативу OpenAI щодо законопроєкту SB 3444 у штаті Іллінойс, який пропонує обмежити відповідальність розробників штучного інтелекту (ШІ) у випадках заподіяння масштабної шкоди. Цей документ, що викликав значний резонанс, визначає “критичну шкоду” як події, які призводять до загибелі або серйозних травм понад 100 осіб, або до збитків, що перевищують 1 мільярд доларів. Законопроєкт передбачає звільнення компаній від відповідальності, якщо вони діяли не навмисно і не з грубою недбалістю, що є ключовим аспектом, який викликає дискусії серед експертів та громадськості.
Важливим додатковим критерієм для звільнення від відповідальності є обов’язкова публікація звітів, що стосуються безпеки, захисту та прозорості функціонування моделей ШІ, особливо це стосується так званих “frontier-моделей” – передових систем, на розробку яких було витрачено понад 100 мільйонів доларів обчислювальних ресурсів.
Позиція OpenAI та занепокоєння критиків
Представники OpenAI висловили свою підтримку цьому законопроєкту, наголошуючи на його підході, що фокусується на мінімізації ризиків, пов’язаних з найпотужнішими моделями ШІ, без обмеження їхнього подальшого впровадження та розвитку. Компанія також виступає за створення єдиної федеральної системи регулювання, яка б замінила розрізнені правила на рівні окремих штатів, що, на їхню думку, сприятиме більш уніфікованому та ефективному підходу до регулювання галузі.
“Ми підтримуємо підхід, який зосереджується на зменшенні ризиків від найбільш потужних моделей, але не обмежує їхнє впровадження”, – зазначили в OpenAI.
Водночас, законопроєкт охоплює потенційно небезпечні сценарії використання ШІ, включаючи створення хімічної, біологічної, радіологічної або ядерної зброї, а також випадки, коли модель самостійно здійснює дії, які в людському виконанні вважалися б злочином. Цей аспект викликає особливе занепокоєння у критиків ініціативи, які вважають, що запропоновані зміни можуть суттєво зменшити відповідальність компаній-розробників. Дослідницькі організації повідомляють, що більшість опитаних мешканців Іллінойсу не підтримують такі законодавчі нововведення, що свідчить про певну суспільну недовіру до запропонованих обмежень відповідальності.
Відсутність єдиного регуляторного поля в США
Наразі в Сполучених Штатах відсутній єдиний комплексний закон, який би чітко визначав відповідальність розробників ШІ за шкоду, заподіяну їхніми системами. У такому правовому вакуумі окремі штати, подібні до Іллінойсу, вдаються до самостійного ухвалення нормативних актів, що регулюють питання безпеки та прозорості ШІ-моделей. Ця ситуація створює певну невизначеність і може призвести до фрагментації регуляторного поля, що ускладнює як розробку, так і впровадження технологій штучного інтелекту.
Для більш глибокого розуміння контексту, варто зазначити, що регулювання ШІ є складною та багатогранною проблемою, яка потребує збалансованого підходу, що враховує як інноваційний потенціал технологій, так і необхідність захисту суспільства від потенційних ризиків.
- Законопроєкт SB 3444: обмеження відповідальності розробників ШІ.
- Визначення “критичної шкоди”: загибель понад 100 осіб або збитки від 1 млрд доларів.
- Умови звільнення від відповідальності: відсутність навмисних дій чи грубої недбалості, публікація звітів про безпеку.
- Сфери застосування: створення зброї масового знищення, злочинні дії ШІ.
- Позиція OpenAI: підтримка фокусу на потужних моделях, прагнення до федерального регулювання.
- Занепокоєння критиків: зменшення відповідальності компаній.
- Суспільна думка: низька підтримка законопроєкту мешканцями Іллінойсу.
- Загальна ситуація в США: відсутність єдиного законодавства, ініціативи на рівні штатів.




