Root NationNaujienosIT naujienosTechnologijų ekspertai reikalauja sustabdyti AI eksperimentus

Technologijų ekspertai reikalauja sustabdyti AI eksperimentus

-

Technologijų lyderiai ir žinomi dirbtinio intelekto tyrinėtojai pasirašė sutartį atviras laiškas, kuriame AI laboratorijos ir įmonės raginamos „nedelsiant sustabdyti“ savo darbą.

Pasirašiusieji, įskaitant Steve'ą Wozniaką ir Eloną Muską, sutinka, kad dėl rizikos reikalaujama bent šešių mėnesių pertraukos gaminant technologijas, kurios peržengia ribas. GPT-4. Taip siekiama gauti džiaugsmo ir pasitenkinimo iš dabar egzistuojančių AI sistemų ir leisti žmonėms prie jų prisitaikyti ir pamatyti, kad jos naudingos.

Technologijų lyderiai ir ekspertai ragina sustabdyti AI eksperimentus

Laiške priduriama, kad norint užtikrinti dirbtinio intelekto sistemų saugumą reikia būti atsargiems ir apgalvotiems, tačiau jie ignoruojami. Nuoroda į GPT-4, naują OpenAI modelį, galintį atsakyti tekstu į rašytinius arba vaizdinius pranešimus, atsiranda įmonėms lenktyniaujant kuriant sudėtingas pokalbių sistemas naudojant šią technologiją. Pavyzdys, Microsoft Neseniai patvirtino, kad atnaujintas „Bing“ paieškos variklis GPT-4 modelyje veikia daugiau nei 7 savaites, o „Google“ neseniai oficialiai pristatė Bardai – nuosava generacinė dirbtinio intelekto sistema, pagrįsta LaMDA.

Susirūpinimas dėl dirbtinio intelekto egzistavo ilgą laiką, tačiau lenktynės dėl pažangiausios technologijos yra akivaizdžios dirbtinis intelektas pirmasis jau kelia nerimą. „Pastaraisiais mėnesiais dirbtinio intelekto laboratorijos įsivėlė į nekontroliuojamas lenktynes, siekdamos sukurti ir įgyvendinti vis galingesnius skaitmeninius protus, kurių niekas – net jų autoriai – negali suprasti, numatyti ar patikimai valdyti“, – rašoma laiške.

Technologijų lyderiai ir ekspertai ragina sustabdyti AI eksperimentus

Laišką paskelbė ne pelno siekianti organizacija „Future of Life Institute“ (FLI), kuri siekia iki minimumo sumažinti pasaulinę katastrofinę ir egzistencinę riziką bei netinkamą naujų technologijų, ypač AI, naudojimą. Anksčiau Muskas paaukojo 10 milijonų dolerių FLI AI saugumo tyrimams. Be jo ir Wozniako, tarp pasirašiusiųjų yra keletas pasaulio AI srities lyderių, pavyzdžiui, AI centro ir skaitmeninės politikos prezidentas Markas Rothenbergas, MIT fizikas ir FLI prezidentas Maxas Tegmarkas ir autorius Yuvalis Noah Harari.

Praėjusią savaitę Harari taip pat parašė New York Times publikaciją, įspėjusią apie su juo susijusią riziką dirbtinis intelektas, kuriame kartu su juo dirbo Humane Technologies centro įkūrėjai ir kiti atviro laiško signatarai Tristanas Harrisas ir Aza Raskin.

Kvietimas buvo paskelbtas po praėjusių metų apklausos, kurioje dalyvavo daugiau nei 700 mašininio mokymosi tyrėjų, kurių beveik pusė teigė, kad yra apie 10 % tikimybė, kad dirbtinis intelektas turės „labai blogų pasekmių“, įskaitant žmonių išnykimą. Paklausti apie saugumą atliekant dirbtinio intelekto tyrimus, 68% respondentų teigė, kad reikia nuveikti daugiau ar daug daugiau.

Taip pat skaitykite:

JerelasEngadget
Registruotis
Pranešti apie
svečias

0 komentarai
Įterptieji atsiliepimai
Žiūrėti visus komentarus