„Chatbot“ platforma „Character.ai“ atnaujina, kaip ji veikia paaugliams, ir žada, kad ji taps „saugia“ erdve su papildomais valdikliais tėvams.
Svetainei JAV keliami du ieškiniai – vienas dėl paauglio mirties – ir buvo pažymėtas kaip „aiškus ir esamas pavojus“ jaunimui.
Jame teigiama, kad dabar saugumas bus „įkvėptas“ naudojant naujas funkcijas, kurios parodys tėvams, kaip jų vaikas naudojasi platforma, įskaitant tai, kiek laiko jie praleidžia kalbėdami su pokalbių robotais ir tais, su kuriais dažniausiai kalbasi.
Platforma, leidžianti vartotojams sukurti skaitmenines asmenybes, su kuriomis jie galėtų bendrauti, pradės „pirmąją tėvų kontrolės iteraciją“ 2025 m. kovo pabaigoje.
Tačiau Molly Rose fondo vadovas Andy’is Burrowsas šį pranešimą pavadino „pavėluotu, reaktyviu ir visiškai nepatenkinamu atsakymu“, kuris, anot jo, „atrodo kaip prilipęs gipso pataisymas pagrindinėms jų saugos problemoms“.
„Tai bus ankstyvas „Ofcom“ išbandymas, norint susidoroti su tokiomis platformomis kaip Character.ai ir imtis veiksmų prieš nuolatinį jų nesugebėjimą įveikti visiškai išvengiamą žalą“, – sakė jis.
Charakteris.ai spalį buvo kritikuojamas kai platformoje buvo rastos paauglių Molly Russell ir Brianna Ghey pokalbių roboto versijos.
O naujos saugos priemonės atsiranda, kai JAV bus imamasi teisinių veiksmų dėl susirūpinimo dėl to, kaip praeityje ji tvarkė vaikų saugumą. su viena šeima teigia pokalbių robotas 17-mečiui pasakė, kad jo tėvų nužudymas buvo „protingas atsakas“ į tai, kad jie apribojo jo ekrano laiką.
Naujos funkcijos apima įspėjimą vartotojams po to, kai jie valandą kalbėjosi su pokalbių robotu, ir naujų atsakomybės apribojimų įvedimą.
Dabar naudotojams bus rodomi papildomi įspėjimai, kad jie kalbasi su pokalbių robotu, o ne su tikru asmeniu, o tai, kas jame parašyta, bus traktuojama kaip fikcija.
Be to, prie pokalbių robotų, kurie tariamai yra psichologai arba terapeutai, pridedami papildomi atsakomybės apribojimai, kad naudotojams būtų nurodyta nepasikliauti profesionaliais patarimais.
Socialinės žiniasklaidos ekspertas Mattas Navarra sakė manantis, kad žingsnis įdiegti naujas saugos priemones „atspindi vis didėjantį iššūkių, kylančių dėl greito AI integravimo į mūsų kasdienį gyvenimą, pripažinimą“.
„Šios sistemos ne tik teikia turinį, bet ir imituoja sąveiką ir santykius, kurie gali sukelti unikalią riziką, ypač susijusią su pasitikėjimu ir klaidinga informacija“, – sakė jis.
„Manau, kad Character.ai kovoja su svarbiu pažeidžiamumu, galimybe piktnaudžiauti arba jauniems vartotojams susidurti su netinkamu turiniu.
„Tai protingas žingsnis, pripažįstantis besikeičiančius lūkesčius, susijusius su atsakingo AI plėtra“.
Tačiau jis sakė, kad nors pokyčiai teikia vilčių, jam buvo įdomu pamatyti, kaip veikia apsaugos priemonės, kai Character.ai ir toliau plečiasi.