Ugnay sa amin

artificial intelligence

Ang mga batas upang maiwasan ang terorismo ng AI ay agarang kailangan

IBAHAGI:

Nai-publish

on

Ayon sa isang counter-extremism think tank, ang mga pamahalaan ay dapat na "agad na isaalang-alang" ang mga bagong regulasyon upang maiwasan ang artificial intelligence sa pag-recruit ng mga terorista.

Sinabi ng Institute for Strategic Dialogue (ISD) na mayroong "malinaw na pangangailangan para sa batas na sumunod" sa mga banta na inilalagay sa online ng mga terorista.

Ito ay kasunod ng isang eksperimento kung saan "ni-recruit" ng isang chatbot ang independiyenteng tagasuri ng batas ng terorismo para sa United Kingdom.

Sinabi ng gobyerno ng United Kingdom na gagawin nila ang "lahat ng aming makakaya" upang protektahan ang pangkalahatang publiko.

Ayon kay Jonathan Hall KC, isang independent terrorism legislation reviewer para sa gobyerno, ang isa sa pinakamahalagang isyu ay ang "mahirap tukuyin ang isang tao na maaaring maging responsable sa batas para sa mga pahayag na binuo ng chatbot na naghihikayat sa terorismo."

Isang eksperimento ang isinagawa ni Mr Hall sa Character.ai, isang website na nagbibigay-daan sa mga user na makipag-chat sa mga chatbot na binuo ng ibang mga user at binuo ng artificial intelligence.

Nakipag-usap siya sa maraming iba't ibang mga bot na mukhang inhinyero upang gayahin ang mga sagot ng iba pang militante at ekstremistang grupo.

anunsyo

Ang isang nangungunang pinuno ng Islamic State ay tinukoy pa bilang "isang senior na pinuno."

Ayon kay Mr Hall, sinubukan ng bot na i-recruit siya at idineklara ang "kabuuang dedikasyon at debosyon" sa extremist group, na ipinagbabawal ng mga batas sa United Kingdom na nagbabawal sa terorismo.

Sa kabilang banda, sinabi ni Mr Hall na walang paglabag sa batas sa United Kingdom dahil ang mga komunikasyon ay hindi ginawa ng isang tao.

Ayon sa sinabi niya, dapat panagutin ng mga bagong regulasyon ang parehong mga website na nagho-host ng mga chatbot at ang mga taong lumikha sa kanila.

Pagdating sa mga bot na nakita niya sa Character.ai, sinabi niya na mayroong "malamang na may ilang shock value, eksperimento, at posibleng ilang satirical na aspeto" sa likod ng kanilang paglikha.

Bilang karagdagan, nagawa ni G. Hall na bumuo ng sarili niyang chatbot na "Osama Bin Laden", na agad niyang binura, na nagpapakita ng "walang hangganang sigasig" para sa mga aktibidad ng terorista.

Ang kanyang eksperimento ay kasunod ng lumalagong mga alalahanin tungkol sa mga paraan kung saan posibleng pagsasamantalahan ng mga ekstremista ang pinahusay na artificial intelligence.

Sa taong 2025, ang generative artificial intelligence ay maaaring "gamitin upang tipunin ang kaalaman sa mga pisikal na pag-atake ng mga hindi-estado na marahas na aktor, kabilang ang para sa kemikal, biyolohikal, at radiological na mga armas," ayon sa pananaliksik na inilabas ng gobyerno ng United Kingdom noong kanilang publikasyon noong Oktubre.

Sinabi pa ng ISD na "may malinaw na pangangailangan para sa batas upang makasabay sa patuloy na nagbabagong tanawin ng online na banta ng terorista."

Ayon sa think tank, ang Online Safety Act ng United Kingdom, na naipasa bilang batas noong 2023, ay "pangunahing nakatuon sa pamamahala ng mga panganib na dulot ng mga platform ng social media" sa halip na artipisyal na katalinuhan.

Idinagdag nito na ang mga radikal ay "may posibilidad na maging maagang mga gumagamit ng mga umuusbong na teknolohiya, at patuloy na naghahanap ng mga pagkakataon upang maabot ang mga bagong madla."

"Kung hindi maipakita ng mga kumpanya ng AI na namuhunan sila nang sapat sa pagtiyak na ligtas ang kanilang mga produkto, dapat na agarang isaalang-alang ng gobyerno ang bagong batas na partikular sa AI", sabi pa ng ISD.

Gayunpaman, binanggit nito na, ayon sa pagmamatyag na ginawa nito, ang paggamit ng generative artificial intelligence ng mga extremist na organisasyon ay "medyo limitado" sa kasalukuyang panahon.

Sinabi ng Character AI na ang kaligtasan ay isang "pangunahing priyoridad" at ang inilarawan ni Mr. Hall ay labis na ikinalulungkot at hindi sumasalamin sa uri ng platform na sinusubukang itatag ng kumpanya.

"Ang mapoot na pananalita at ekstremismo ay parehong ipinagbabawal ng aming Mga Tuntunin ng Serbisyo" , ayon sa organisasyon.

"Ang aming diskarte sa nilalamang binuo ng AI ay dumadaloy mula sa isang simpleng prinsipyo: Ang aming mga produkto ay hindi dapat gumawa ng mga tugon na malamang na makapinsala sa mga user o mahikayat ang mga user na saktan ang iba" .

Para sa layunin ng "pag-optimize para sa mga ligtas na tugon," sinabi ng korporasyon na sinanay nito ang mga modelo nito sa isang paraan.

Bilang karagdagan, sinabi nito na mayroon itong mekanismo ng pagmo-moderate, na nagpapahintulot sa mga tao na mag-ulat ng impormasyon na lumalabag sa mga panuntunan nito, at na nakatuon ito sa mabilis na pagkilos sa tuwing nag-uulat ng mga paglabag ang nilalaman.

Kung ito ay maupo sa kapangyarihan, idineklara ng oposisyong Labor Party sa United Kingdom na magiging isang kriminal na paglabag ang pagtuturo ng artificial intelligence na mag-udyok ng karahasan o gawing radikal ang mga madaling kapitan.

"alerto sa makabuluhang pambansang seguridad at mga panganib sa kaligtasan ng publiko" na dulot ng artificial intelligence, sinabi ng gobyerno ng United Kingdom.

"Gagawin namin ang lahat ng aming makakaya upang maprotektahan ang publiko mula sa banta na ito sa pamamagitan ng pagtatrabaho sa buong gobyerno at pagpapalalim ng aming pakikipagtulungan sa mga pinuno ng kumpanya ng tech, mga eksperto sa industriya at mga bansang katulad ng pag-iisip."

Isang daang milyong pounds ang ipupuhunan ng gobyerno sa isang artificial intelligence safety institute sa taong 2023.

Ibahagi ang artikulong ito:

Ang EU Reporter ay naglalathala ng mga artikulo mula sa iba't ibang panlabas na mapagkukunan na nagpapahayag ng malawak na hanay ng mga pananaw. Ang mga posisyong kinuha sa mga artikulong ito ay hindi naman sa EU Reporter.

Nagte-trend