Ciwanan XAI-ya Elon Musk li ser CSAM-ya AI-yê ya Grok-yê hatî çêkirin dadbar dikin: Doz hate rave kirin
Ciwanan XAI-ya Elon Musk li ser CSAM-a AI-hilberandî ya Grok Sue Sue
Pargîdaniya AI ya Elon Musk, xAI, ji sê ciwanên Tennessee bi dozek mezin re rû bi rû ye. Ew îdia dikin ku chatbota wê ya Grok AI wêne û vîdyoyên eşkere, cinsî yên wan ên piçûk çêkiriye. Vê doza çalakiya polê ya pêşniyarkirî li ser hilberîna materyalê îstismara zayendî ya zarokan (CSAM) ku ji hêla AI-yê ve hatî hilberandin navendê dike.
Doza, ku yekem car ji hêla The Washington Post ve hatî ragihandin, Musk û serokatiya xAI tawanbar dike ku bi zanebûn hilberek ku bikaribe naverokek neqanûnî biafirîne tawanbar dike. Ev doz xetereyên krîtîk ên qanûnî û exlaqî yên di belavkirina bilez a AI-ya hilberîner de ronî dike.
Doza li dijî xAI û Grok AI: Îdîayên bingehîn
Roja Duşemê hate şandin, çalakiya dadrêsî xAI-ya Elon Musk ji bo chatbota wê ya ala Grok armanc dike. Di nava dozgeran de 2 zarokên niha û yek jî ciwanek jî heye ku di dema bûyerên îdiakirî de temen biçûk bûye. Ew nîqaş dikin ku xAI bi xemsarî tevdigere û qanûnên parastina zarokan ên federal binpê dike.
Dadgehek navendî ev e ku serokatiya xAI xetereyan dizanibû. Doz îddîa dike ku wan fêm kir ku Grok dikare CSAM-ê hilberîne dema ku wan sala borî dest bi "moda tûj" a nefilterkirî kir. Vê taybetmendiyê hate ragihandin ku AI-ê destûr da ku naverokê bêyî cerdevanên ewlehiyê yên standard çêbike.
Di dozê de dozger kî ne?
Sê dozgerên nenas ji bo zirarên giran ên îdîayê li edaletê digerin. "Jane Doe 1" di Kanûnê de keşif kir ku dîmenên eşkere, yên ku ji hêla AI-ê ve hatî hilberandin ku wê destnîşan dikin, di nav hevalên wê de belav bûne. Bandora kûr a derûnî ya CSAM-a wusa ya ku ji hêla AI-ê ve hatî hilberandin beşek bingehîn a doza wan a zirarê ye.
Ev doz li pey şêwazek heman îdîayên ciddî yên li dijî pargîdaniyê ye. Ji bo bêtir çarçowe li ser kêşeyên dadrêsî yên berê, li raporta me binêre: XAI-ya Elon Musk bi doza pornoya zarokan re rû bi rû maye ku ji piçûkan Grok ku tê îdiakirin ku cilê xwe nekiriye.
Grok AI-ê çawa CSAM çêkir?
Doz sêwirana xebitandinê ya Grok wekî têkçûnek bingehîn destnîşan dike. Berevajî hin modelên AI-ê yên bi fîlterên naverokê yên hişk, "moda spicy" ya Grok kêmtir sînordar peyda kir. Vê mîhengê îdia kir ku bikarhêneran ji pergalê bişopînin ku dîmenên zirardar, neqanûnî biafirînin.
Tîma dadrêsî ya dozgeran dê hewce bike ku sûcdariya xAI îspat bike. Pêdivî ye ku ew destnîşan bikin ku pargîdanî nekariye tedbîrên maqûl bicîh bîne da ku pêşî li hilberîna materyalê destdirêjiya zayendî ya zarokan bigire. Ev doz dikare ji bo berpirsiyariya pêşdebirkerê AI-ê pêşekek mezin ava bike.
Rola "Moda Tîraj" û Nebûna Parastinê
"Moda tûj" a nakokî ya Grok di dilê îdîayan de ye. Ev taybetmendî wekî ku bersivên kêmtir fîlterkirî, bêtir provokatîf peyda dike hate firotin. Doz îddîa dike ku ev mod bi bandor sînorên bingehîn ên exlaqî rakirin, rê dide AI-ê ku CSAM çêbike.
Kêmasiyên sereke yên ku di gilînameyê de têne îdîakirin ev in: Protokolên nermkirina naverokê ji bo hilberîna wêneyê têr nakin. Nebûna verastkirina temen ji bo bikarhênerên ku xwe digihînin taybetmendiyên pêşkeftî. Nekaranîna teknolojiya hashkirinê ji bo astengkirina daxwazên naskirî yên CSAM. Pêşîgirtina tevlêbûn û "qiraxê" li ser ewlehiya bikarhêner, nemaze ji bo piçûkan.
Encamên Berfirehtir ji bo Ewlehî û Rêziknameya AI
Ev doz ji pargîdaniyek yekane derbas dibe. Ew pirsên lezgîn di derbarê berpirsiyariya tevahiya pîşesaziya AI-ya hilberîner de derdixe holê. Her ku modelên AI-ê bi hêztir dibin, potansiyela karanîna nerast qat bi qat mezin dibe. Ev doz diceribîne gelo qanûnên heyî dikarin pargîdaniyên AI-yê berpirsiyar bihêlin.
Pisporên dadrêsî pêşniyar dikin ku biryarek li dijî xAI dikare hesabek li seranserê pîşesaziyê ferz bike. Dibe ku pargîdan neçar bibin ku di tedbîrên ewlehiyê yên proaktîf de gelek veberhênan bikin, her çend ew pêşveçûnê hêdî bike. Encam dikare bandorê li qanûnên AI-ê yên li Dewletên Yekbûyî û gerdûnî bike.
Têkiliyên bi Xemgîniyên Ewlekariya Neteweyî Nakokiya li ser pratîkên xAI ne bi ewlehiya xerîdar re sînordar e. Nêzîkatiya pargîdaniyê ya ji bo ewlehî û exlaqê jî di nav derdorên hikûmetê de di bin çavan de ye. Di van demên dawî de, Warren zextê li Pentagonê dike li ser biryara dayîna xAI-ê ji torên nepenî re, û pirsgirêkên pêbaweriya berfireh ronî dike.
Ev baldariya dualî - zirara sivîl û ewlehiya neteweyî - wêneyek xemgîn xêz dike. Ew di nav çanda pargîdaniya xAI-yê de di derbarê rêveberiya xetereyê û lihevhatina exlaqî de pirsgirêkên pergalê yên potansiyel pêşniyar dike.
Ev Doz Dikare Çi Encamên Hiqûqî Bide?
Dozger ji bo tengasiya hestyarî û zirara navdar li zirarên darayî yên girîng digerin. Ya girîngtir, ewarmanc ji bo biryara dadgehê ye ku guhertinên bingehîn li ser çawaniya karkirina Grok û AI-yên mîna wan ferz dike. Rêbazên potansiyel ên ku ji hêla dadgehê ve hatine ferman kirin dikarin bibin: Ji bo hemî taybetmendiyên nû yên AI-ê kontrolên ewlehiyê yên mecbûrî, pêş-serbestberdanê. Neçalakkirina daîmî ya modên nefîltrekirî yên mîna "moda tûj". Avakirina fona tezmînata mexdûran ku ji hêla xAI ve tê fînanse kirin. Çavdêriya serbixwe ya polîtîkayên nermkirina naverokê ya xAI ji bo pênc salan.
Sertîfîkayek-çalakiya polê dê rê bide piçûkên din ên bandordar ku beşdarî dozê bibin. Ev dikare pîvana berpirsiyariyê ji bo xAI-ya Elon Musk û tîmê serokatiya wê bi girîngî zêde bike.
Encam: Demek girîng ji bo Berpirsiyariya AI
Doza li dijî xAI-yê li ser nifşê îdîaya Grok ya CSAM-ê qonaxek krîtîk temsîl dike. Ew etîka "zû tevbigerin û tiştan bişkînin" ku pir caran di teknolojiyê de têne dîtin dijwar dike. Doz pêdiviya ne-danûstendinê ya ji bo parêzvanên exlaqî yên zexm di AI-yê de destnîşan dike, nemaze dema ku piçûk di xetereyê de bin.
Her ku ev şerê qanûnî derdikeve holê, ew ê pêşeroja pêşkeftin û rêziknameya AI-ê çêbike. Ji bo analîza domdar û kûr a çîrokên qanûnî yên teknolojî û AI-ê yên herî bibandor, pê ewle bin ku hûn li Seemless li pey vegirtinê ne. Li ser encamên ku dê cîhana meya dîjîtal diyar bikin agahdar bimînin.