Kalifornijos valstijos senatorius Scottas Wieneris trečiadienį pristatė naujus savo naujausio įstatymo projekto „SB 53“ pakeitimus, pagal kuriuos didžiausioms pasaulyje AI bendrovėms reikės paskelbti saugos ir saugumo protokolus ir išduoti ataskaitas, kai įvyks saugos incidentai.
Jei bus pasirašyta įstatymais, Kalifornija būtų pirmoji valstija, kuriems pirmaujantiems AI kūrėjams nustatytų reikšmingus skaidrumo reikalavimus, įskaitant „Openai“, „Google“, „Anthropic“ ir „Xai“.
Senatoriaus Wienerio ankstesnis AI įstatymo projektas, SB 1047, įtraukė panašius reikalavimus AI modelio kūrėjams paskelbti saugos ataskaitas. Tačiau Silicio slėnis nuožmiai kovojo su tuo įstatymo projektu, ir jį galiausiai vetavo gubernatorius Gavinas Newsomas. Tuomet Kalifornijos gubernatorius paragino grupės lyderių grupę, įskaitant pagrindinį Stanfordo tyrėją ir „World Labs“ įkūrėją Fei-Fei Li, sudaryti politikos grupę ir nustatyti valstybės AI saugos pastangų tikslus.
Kalifornijos AI politikos grupė neseniai paskelbė savo galutines rekomendacijas, nurodydama „reikalavimų pramonei skelbti informaciją apie savo sistemas poreikį“, kad būtų sukurta „tvirta ir skaidri įrodymų aplinka“. Senatoriaus Wienerio biuras pranešime spaudai teigė, kad šioje ataskaitoje didelę įtaką padarė „SB 53“ pataisos.
„Įstatymo projektas ir toliau yra nebaigtas darbas, ir aš tikiuosi, kad artimiausiomis savaitėmis galėsiu dirbti su visomis suinteresuotosiomis šalimis, kad šis pasiūlymas būtų patobulintas į labiausiai mokslinį ir sąžiningą teisę, kokia ji gali būti“, – pranešime teigė senatorius Wieneris.
„SB 53“ siekia pasiekti pusiausvyrą, kurios gubernatorius Newsomas teigė, kad „SB 1047“ nepasiekė – idealiu atveju, sukuriant reikšmingus skaidrumo reikalavimus didžiausiems AI vystytojams, nesukeldami spartų Kalifornijos AI pramonės augimo.
„Tai kelia susirūpinimą, apie kurį mano organizacija ir kiti kurį laiką kalbėjo“, – interviu „TechCrunch“ sakė Nathanas Calvinas, ne pelno siekiančios AI saugos grupės „Encode“ valstybinių reikalų viceprezidentas. „Tai, kad įmonės paaiškina visuomenei ir vyriausybei, kokių priemonių jie imasi siekdami atkreipti dėmesį į šią riziką, jaučiasi kaip minimalus, pagrįstas žingsnis.“
Įstatymo projektas taip pat sukuria informatorių apsaugą AI laboratorijų darbuotojams, kurie mano, kad jų įmonės technologija kelia „kritinę riziką“ visuomenei – įstatymo projekte apibrėžta kaip prisidedanti prie daugiau nei 100 žmonių mirties ar žalos, arba daugiau nei 1 milijardo dolerių žalos.
Be to, įstatymo projektą siekiama sukurti „CalCompute“-viešą debesų kompiuterijos klasterį, kuris palaikytų pradedančiuosius ir tyrėjus, kuriančius didelio masto AI.
Skirtingai nuo „SB 1047“, naujasis senatoriaus Wienerio įstatymo projektas nepadaro AI modelio kūrėjų, atsakingų už jų AI modelių žalą. „SB 53“ taip pat buvo sukurtas taip, kad neužduotų naštos pradedantiesiems ir tyrėjams, kurie tiksliai sureguliuoja AI modelius iš vadovaujančių AI kūrėjų ar naudoja atvirojo kodo modelius.
Su naujais pakeitimais „SB 53“ dabar vadovauja Kalifornijos valstijos asamblėjos privatumo ir vartotojų apsaugos komitetui patvirtinti. Jei jis praeis ten, įstatymo projektas taip pat turės perduoti keletą kitų įstatymų leidybos organų prieš pasiekiant gubernatoriaus Newsomo stalą.
Kitoje JAV pusėje Niujorko gubernatorė Kathy Hochul dabar svarsto panašų AI saugos įstatymą „Raise Act“, kuriam taip pat reikės didelių AI kūrėjų paskelbti saugos ir saugumo ataskaitas.
Valstybinių AI įstatymų, tokių kaip „Raise Act“ ir „SB 53“, likimas trumpam kilo pavojus, nes federaliniai įstatymų leidėjai laikė 10 metų AI moratoriumą valstybinio AI reglamente-bandymą apriboti „pataisą“ iš AI įstatymų, kuriuos įmonės turėtų naršyti. Tačiau šis pasiūlymas nepavyko per 99-1 Senato balsavimą anksčiau liepą.
„AI užtikrinimas, kad būtų saugiai plėtojama, neturėtų būti prieštaringai vertinama – ji turėtų būti pagrindinė“, – pranešime „TechCrunch“ sakė buvęs „Y Comminator“ prezidentas Geoffas Ralstonas. „Kongresas turėtų vadovauti, reikalaudamas skaidrumo ir atskaitomybės iš bendrovių, statančių pasienio modelius. Tačiau neturėdamos rimtų federalinių veiksmų, valstijos turi sustiprėti. Kalifornijos SB 53 yra apgalvotas, gerai struktūruotas valstybės vadovybės pavyzdys“.
Iki šiol įstatymų leidėjams nepavyko patekti į AI bendroves, kurių valstybės suteikiami skaidrumo reikalavimai. „Anthropic“ iš esmės pritarė padidėjusio AI kompanijų skaidrumo poreikiui ir netgi išreiškė kuklų optimizmą dėl Kalifornijos AI politikos grupės rekomendacijų. Tačiau tokios įmonės kaip „Openai“, „Google“ ir „Meta“ buvo atsparesnės šioms pastangoms.
Pirmaujantys AI modelių kūrėjai paprastai skelbia savo AI modelių saugos ataskaitas, tačiau pastaraisiais mėnesiais jie buvo mažiau nuoseklūs. Pvz. „Openai“ taip pat nusprendė neskelbti savo „GPT-4.1“ modelio saugos ataskaitos. Vėliau pasirodė trečiųjų šalių tyrimas, kuris rodo, kad jis gali būti mažiau suderintas nei ankstesni AI modeliai.
„SB 53“ yra sušvelninta ankstesnių AI saugos sąskaitų versija, tačiau ji vis tiek gali priversti AI kompanijas paskelbti daugiau informacijos nei šiandien. Kol kas jie atidžiai stebės, kaip senatorius Wieneris dar kartą išbandys tas ribas.