Root NationStraipsniaiAnalizėŠeši dirbtinio intelekto įsakymai

Šeši dirbtinio intelekto įsakymai

-

Kiti metai bus pažymėti sparčia dirbtinio intelekto technologijų plėtra. Gal reikia įvesti aiškiai apibrėžtas AI kūrimo ir naudojimo sistemas? Ar pakanka 6 mėnesių patirties reguliuoti technologiją, kuri dar net neišėjo iš laboratorijos? Šis klausimas vis dažniau kyla iš ekspertų ir žurnalistų lūpų, kai kalbama apie dirbtinį intelektą. Vis dažniau pasigirsta balsų ir raginimų imtis priemonių reguliuoti dirbtinį intelektą – tiek vartotojų, tiek projektų kūrimo lygmeniu. Tokių kreipimųsi istorija prasidėjo gana seniai.

Skaitmeninėje erdvėje visur esantis dirbtinis intelektas ir, svarbiausia, modeliai, galintys kurti turinį, kuris nesiskirtų nuo žmogaus sukurto, sukelia labai skirtingas emocijas. Viena vertus, turime grupę entuziastų, kurie AI mato ateitį ir, nepaisant gana ribotų jo galimybių (nes AI nemąsto, o dažnai tiesiog ima informaciją iš interneto), nebijo jai patikėti daug užduočių. . Kitoje barikadų pusėje – grupė, kuri išreiškia savo skepticizmą ir susirūpinimą dabartinėmis dirbtinio intelekto plėtros tendencijomis.

AI postulatas

Tiltas tarp dviejų grupių yra dirbtinio intelekto tyrinėtojai, kurie, viena vertus, pateikia daugybę pavyzdžių, kaip dirbtinis intelektas teigiamai paveikė supančią tikrovę. Kartu jie supranta, kad ilsėtis ant laurų dar anksti, o didžiulis technologinis šuolis atneša daug iššūkių ir didelę atsakomybę. Ryškus tokio požiūrio pavyzdys – tarptautinė dirbtinio intelekto ir mašininio mokymosi tyrėjų grupė, vadovaujama daktaro Ozlemo Garibay iš Centrinės Floridos universiteto. 47 puslapių leidinyje, kurį parašė 26 mokslininkai iš viso pasaulio, nustatomi ir aprašomi šeši iššūkiai, kuriuos turi spręsti mokslinių tyrimų institucijos, įmonės ir korporacijos, kad jų modeliai (ir juos naudojanti programinė įranga) būtų saugūs.

Taip, tai rimtas mokslinis darbas su svarbiais paaiškinimais, kaip suprasti dirbtinio intelekto ateitį. Kam įdomu, gali savarankiškai perskaitykite šį mokslinį pranešimą ir padarykite savo išvadas. Paprastais žodžiais tariant, mokslininkai nustatė 6 dirbtinio intelekto įsakymus. Visi dirbtinio intelekto pokyčiai ir veiksmai turi atitikti juos, kad būtų saugūs žmonėms ir pasauliui.

AI postulatas

Savo straipsnyje, parašytame būtent šio mokslinio darbo pagrindu, pabandysiu suformuluoti pagrindinius postulatus, dėsnius, pagal kuriuos dirbtinis intelektas turėtų egzistuoti ir vystytis. Taip, tai mano kone laisvas mokslininkų išvadų dėl dirbtinio intelekto vystymo interpretavimas ir bandymas jas pateikti, galima sakyti, bibliniu variantu. Bet taip norėjau jus supažindinti su šiuo gerbiamų mokslininkų moksliniu darbu.

Taip pat įdomu: AI kūrimas: kas vadovauja lenktynėms?

Pirmasis dėsnis: žmogaus gerovė

Pirmasis mokslininkų postulatas – dirbtinio intelekto darbą sutelkti į žmogaus gerovę. Dėl „žmogiškų vertybių, sveiko proto ir etikos“ stokos dirbtinis intelektas gali veikti taip, kad smarkiai pablogėtų žmogaus savijauta. Problemos gali kilti dėl AI antžmogiškų sugebėjimų (pavyzdžiui, kaip lengvai AI įveikia žmones – ir ne tik šachmatais), bet ir dėl to, kad AI negalvoja už save, todėl negali „išfiltruoti“ šališkumo ar akivaizdžios klaidos.

AI postulatas

- Reklama -

Mokslininkai pastebi, kad per didelis pasitikėjimas dirbtinio intelekto technologijomis gali neigiamai paveikti žmonių savijautą. Visuomenė, kuri mažai supranta, kaip iš tikrųjų veikia dirbtinio intelekto algoritmai, yra linkusi per daug ja pasitikėti arba, priešingai, neigiamai žiūri į turinį, kuriamą tam tikro modelio, ypač pokalbių robotų. Atsižvelgdama į šiuos ir kitus veiksnius, Garibay komanda ragina ateities dirbtinio intelekto ir žmogaus sąveikos centre žmogaus gerovę.

Taip pat skaitykite: ChatGPT: paprastas vartotojo vadovas

Antrasis dėsnis: atsakomybė

Atskaitomybė yra terminas, kuris nuolat pasirodo AI pasaulyje, atsižvelgiant į tai, kam naudojame mašininį mokymąsi ir kaip tiksliai kuriami ir mokomi AI modeliai ir algoritmai. Tarptautinė komanda pabrėžia, kad dirbtinio intelekto kūrimas, kūrimas ir diegimas turėtų būti atliekami tik su gerais ketinimais.

AI postulatas

Jų nuomone, atsakomybė turėtų būti vertinama ne tik techniniame, bet ir teisiniame bei etiniame kontekste. Technologijos turi būti vertinamos ne tik jos efektyvumo, bet ir naudojimo kontekste.

"Įdiegus pažangias mašininio mokymosi technologijas, tampa vis svarbiau suprasti, kaip buvo priimtas sprendimas ir kas už jį atsakingas.“ – rašo mokslininkai.

Trečiasis įstatymas: Konfidencialumas

Privatumas yra tema, kuri bumerangu įsilieja į kiekvieną diskursą apie technologijas. Ypač kai viskas aptarinėjama socialiniuose tinkluose. Tačiau tai nepaprastai svarbu dirbtiniam intelektui, nes jis neegzistuoja be duomenų bazės. O kas yra duomenų bazės?

Mokslininkai juos apibūdina kaip „pagrindinių statybinių blokų, sudarančių mūsų požiūrį į pasaulį, abstrakciją“. Šie blokai dažniausiai yra žemiškos vertybės: spalvos, formos, faktūros, atstumai, laikas. Nors siauras AI orientuotas į vieną tikslą, pvz., užrakto atsidarymo laipsnį esant tam tikram šviesos intensyvumui, naudoja viešai prieinamus objektyvius duomenis, AI platesnėse programose (čia, pavyzdžiui, teksto į vaizdą modeliai, tokie kaip Midjourney , arba kalbos modeliai, pvz., ChatGPT ) gali naudoti duomenis apie žmones ir jų sukurtus. Taip pat paminėtini straipsniai spaudoje, knygos, iliustracijos, nuotraukos, publikuotos internete. Dirbtinio intelekto algoritmai turi prieigą prie visko, nes mes patys jiems tai suteikėme. Priešingu atveju jis nieko nežinos ir neduos atsakymų į jokį klausimą.

AI postulatas

Vartotojų duomenys iš esmės veikia tiek žmones, apie kuriuos renkami šie duomenys, tiek sistemos, kurioje bus diegiami dirbtinio intelekto algoritmai, žmones.

Todėl trečiasis iššūkis yra susijęs su plačiu privatumo supratimu ir tokių teisių kaip teisė likti vienam, teisė apriboti galimybę susipažinti su savimi, teisė į asmeninio gyvenimo ar verslo paslaptį, teisė kontroliuoti informacija, tai yra teisė ginti savo asmenybę, individualumą ir orumą. Visa tai turi būti įrašyta į algoritmus, kitaip privatumo tiesiog nebus, o dirbtinio intelekto algoritmai gali būti naudojami sukčiavimo schemose, taip pat nusikalstamose veikose.

Taip pat skaitykite: 7 šauniausi „ChatGPT“ naudojimo būdai

Ketvirtasis dėsnis: projekto struktūra

Dirbtinis intelektas gali būti labai paprastas ir vienkartinis, tačiau didesnių modelių, turinčių platų ir daugiafunkcinį pobūdį, problema yra ne tik duomenų privatumas, bet ir dizaino struktūra.

Pavyzdžiui, GPT-4, naujausias OpenAI dirbtinio intelekto modelis, nepaisant jo dydžio ir poveikio AI pasauliui (ir ne tik), neturi visiškai viešų dokumentų. Tai yra, mes neturime supratimo, kokie yra galutiniai kūrėjų tikslai, ką jie nori gauti galutiniame rezultate. Todėl negalime iki galo įvertinti rizikos, susijusios su šio AI modelio naudojimu. Kita vertus, GPT-3, parengtas remiantis 4chan forumo duomenimis, yra modelis, su kuriuo tikrai nenorite bendrauti. 4chan forumas yra vienas įdomiausių reiškinių internete. Tai absoliučios, totalinės anarchijos, kuri praktiškai nėra ribojama jokiais pagrindais, pavyzdys. Čia buvo sukurtos įsilaužimo grupės, tokios kaip Anonymous ar LulzSec. Tai daugelio populiariausių memų šaltinis, vieta diskutuoti prieštaringomis temomis ir paskelbti dar prieštaringesnes nuomones. Nors vaizdų lenta anglų kalba pažymi, kad „kol kas tai yra legalu“, tai yra šiek tiek abejotina, atsižvelgiant į tai, kad „4chan“ retkarčiais bendrauja su žiniasklaida, įskaitant rasistinį, nacistinį ir seksistinį turinį.

AI postulatas

- Reklama -

Profesoriaus Garibay komanda nori, kad kiekvienas dirbtinio intelekto modelis veiktų aiškiai apibrėžtoje sistemoje. Ne tik dėl asmens, su kuriuo AI sąveikauja, gerovės, bet ir dėl galimybės įvertinti su modelio naudojimu susijusią riziką. Bet kurio projekto struktūra turėtų apimti pagarbą skirtingų kultūrinių grupių ir suinteresuotųjų šalių poreikiams, vertybėms ir norams. AI kūrimo, mokymo ir tobulinimo procesas turėtų būti orientuotas į žmonių gerovę, o galutinis produktas – AI modelis – turėtų būti orientuotas į pačios žmonių bendruomenės produktyvumo didinimą ir gerinimą. Modeliai, kuriuose rizikos neįmanoma nustatyti, turėtų turėti ribotą arba kontroliuojamą prieigą. Jie neturėtų kelti grėsmės žmonijai, o, priešingai, prisidėti prie žmogaus ir visos visuomenės vystymosi.

Taip pat skaitykite: Twitter Elono Musko rankose – grėsmė ar „pagerėjimas“?

Penktasis įstatymas: valdymas ir nepriklausoma priežiūra

Dirbtinio intelekto algoritmai tiesiogine prasme pakeitė pasaulį vos per vienerius metus. „Bard by Google“ ir „Bing“ premjeros pagal Microsoft reikšmingai paveikė abiejų milžinų akcijas biržoje. Beje, jie prisidėjo prie šių įmonių akcijų augimo net akcijų fone Apple. ChatGPT pradėjo aktyviai naudotis mokyklos mokiniai, su juo bendrauja, nagrinėja, klausinėja. Svarbiausia, kad jis gebėtų savarankiškai mokytis, ištaisyti savo klaidas. Dirbtinis intelektas net pradeda veikti kai kurių šalių vyriausybėse. Tai Rumunijos ministro pirmininko Nicolae Chuca atvejis pasamdė virtualų asistentas, kuris informuos jį apie visuomenės poreikius. Tai reiškia, kad dirbtinis intelektas mūsų gyvenime užima vis svarbesnį vaidmenį.

AI

Atsižvelgiant į nuolat didėjančią dirbtinio intelekto, žmogaus ir aplinkos tarpusavio priklausomybę, mokslininkai mano, kad būtina sukurti valdymo organus ir nepriklausomą jo vystymosi priežiūrą. Šios įstaigos valdys visą dirbtinio intelekto gyvavimo ciklą: nuo idėjos iki kūrimo ir įgyvendinimo. Valdžios institucijos tinkamai apibrėš skirtingus AI modelius ir svarstys atvejus, susijusius su dirbtiniu intelektu ir socialinio gyvenimo subjektais. Tai yra, dirbtinis intelektas gali tapti teisminių bylų, taip pat ir ieškinių objektu. Nors, žinoma, ne jis asmeniškai, o jo kūrėjai.

Taip pat skaitykite: Viskas apie „Neuralink“: „Cyberpunk“ beprotybės pradžia?

Šeštasis dėsnis: žmogaus ir dirbtinio intelekto sąveika

Dirbtinio intelekto programose kiekvienas gali rasti kažką sau: generuoti tekstą, aptikti turinį vaizduose, atsakyti į klausimus, generuoti vaizdus, ​​atpažinti žmones nuotraukose, analizuoti duomenis. Šis daugialypis naudojimas kelia susirūpinimą ne tik žmonėms, bandantiems pritaikyti dirbtinį intelektą prie teisinių ir etinių standartų. Daugelis baiminasi, kad dirbtinio intelekto modeliai bus išstumti iš darbo rinkos. Nes dirbtinio intelekto algoritmai tą patį galės padaryti greičiau, pigiau, o gal net geriau nei žmogus. Tuo pačiu yra žmonių, kurie savo darbe remiasi dirbtiniu intelektu, t.y. dirbtinis intelektas jiems jau šiandien yra nepamainomas asistentas.

AI

Tačiau iš mokslininkų nurodytų tyrimų aiškėja, kad iki žmonių pakeitimo pigia dirbtine darbo jėga dar gana toli. Nepaisant to, jie jau tvirtina, kad reikia nustatyti griežtą žmonių ir dirbtinio intelekto sąveikos hierarchiją. Jų nuomone, žmonės turėtų būti aukščiau dirbtinio intelekto. Dirbtinis intelektas turi būti kuriamas atsižvelgiant į pažintinius žmogaus gebėjimus, atsižvelgiant į jo emocijas, socialinę sąveiką, idėjas, planavimą ir sąveiką su objektais. Tai yra, visose situacijose būtent žmogus turi stovėti prieš dirbtinį intelektą, kontroliuoti modelio sukurtą elgesį ir turinį bei būti už tai atsakingas. Paprastais žodžiais tariant, net ir pažangiausias AI turi paklusti žmogui ir neperžengti to, kas leistina, kad nepakenktų jo kūrėjui.

Taip pat skaitykite: Kaip Ukraina naudoja ir pritaiko Starlink karo metu

Visnovki

Taip, kažkas pasakys, kad mokslininkai savo pranešime nenurodė nieko svarbaus ir naujo. Visi jau seniai apie tai kalba. Tačiau jau dabar būtina AI įdėti į tam tikrus įstatymų rėmus. GPT-4 siekimas yra tarsi akla siekimas peilio. Jie nuo mūsų slepia pagrindinę informaciją. Visi dirbtinio intelekto pokyčiai, ypač „ChatGPT“ projektas iš „Open AI“, man dažnai primena mažo vaiko auginimą. Kartais atrodo, kad tai svetimos kilmės vaikas. Taip, ateivis, bet jis dar vaikas, kuris mokosi, klysta, kartais elgiasi neadekvačiai, yra irzlus, ginčijasi su tėvais. Nors auga ir vystosi labai greitai.

AI

Žmonija gali neatsilikti nuo savo vystymosi ir viskas gali tapti nekontroliuojama. Todėl jau žmonijai reikia suprasti, kodėl mes visa tai vystome, žinoti galutinius tikslus, būti „atsakingais tėvais“, nes kitaip „vaikas“ gali tiesiog sunaikinti savo „tėvus“.

Taip pat skaitykite: 

Yuri Svitlyk
Yuri Svitlyk
Karpatų kalnų sūnus, nepripažintas matematikos genijus, „teisininkas“Microsoft, praktiškas altruistas, kairė-dešinė
- Reklama -
Registruotis
Pranešti apie
svečias

0 komentarai
Įterptieji atsiliepimai
Žiūrėti visus komentarus