Številni akademiki in politični strokovnjaki so predlagali, da Mednarodni znanstveni svet – s svojim pluralističnim članstvom iz družbenih in naravoslovnih ved – vzpostavi postopek za izdelavo in vzdrževanje označenega okvira/kontrolnega seznama tveganj, koristi, nevarnosti in priložnosti. povezanih s hitro premikajočimi se digitalnimi tehnologijami, vključno – vendar ne omejeno na – AI. Namen kontrolnega seznama bi bil obvestiti vse zainteresirane strani – vključno z vladami, trgovinskimi pogajalci, regulatorji, civilno družbo in industrijo – o morebitnih prihodnjih scenarijih in bi oblikoval, kako bi lahko upoštevali priložnosti, koristi, tveganja in druga vprašanja.
ISC z veseljem predstavlja ta dokument za razpravo o ocenjevanju hitro razvijajoče se digitalne in sorodne tehnologije. Umetna inteligenca, sintetična biologija in kvantne tehnologije so najboljši primeri inovacij, ki jih je podprla znanost in se pojavljajo z izjemno hitrostjo. Sistematično predvidevanje ne le njihove uporabe, ampak tudi njihovih posledic je lahko izziv.
Vrednotenje družbenih vidikov generativne umetne inteligence, kot so veliki jezikovni modeli, ki predvidljivo predstavljajo večji del tega dokumenta za razpravo, je potreben most znotraj trenutnega diskurza – včasih ga vodi panika, drugič premalo poglobljeno – in potrebnih tečajev ukrepanje, ki ga lahko izvedemo. ISC je prepričan, da je potreben analitični okvir med družbeno sprejemljivostjo takšnih novih tehnologij in njihovo možno regulacijo za olajšanje razprav z več deležniki, ki so potrebne za sprejemanje ozaveščenih in odgovornih odločitev o tem, kako optimizirati družbene koristi te hitro razvijajoče se tehnologije.
ISC je odprt za odzive naše skupnosti prek tega dokumenta za razpravo, da oceni, kako najbolje še naprej biti del razprave o tehnologiji in prispevati k njej.
Salvatore Aricò, izvršni direktor
Dokument za razpravo ISC
Okvir za ocenjevanje hitro razvijajočih se digitalnih in sorodnih tehnologij: AI, veliki jezikovni modeli in več
Ta dokument za razpravo ponuja oris začetnega okvira za obveščanje o številnih globalnih in nacionalnih razpravah, ki potekajo v zvezi z umetno inteligenco.
Prenesite poročiloNovo! Preberite različico 2024 za oblikovalce politik s prenosljivim ogrodjem za vašo organizacijo.
Priročnik za oblikovalce politik: vrednotenje hitro razvijajočih se tehnologij, vključno z umetno inteligenco, velikimi jezikovnimi modeli in več
Ta dokument za razpravo ponuja oris začetnega okvira za obveščanje o številnih globalnih in nacionalnih razpravah, ki potekajo v zvezi z umetno inteligenco.
vsebina
Uvod
Hitro razvijajoče se tehnologije predstavljajo zahtevna vprašanja, ko gre za njihovo upravljanje in morebitno regulacijo. Politika in javne razprave o umetni inteligenci (AI) in njeni uporabi so ta vprašanja postavile v središče pozornosti. Medtem ko so UNESCO, OECD in drugi razglasili široka načela za umetno inteligenco in potekajo razprave o globalni ali jurisdikcijski ureditvi tehnologije, obstaja ontološka vrzel med razvojem načel na visoki ravni in njihovo vključitvijo v regulativo, politiko, pristopi upravljanja in skrbništva. Tu bi lahko imela posebno vlogo nevladna znanstvena skupnost.
Številni akademiki in politični strokovnjaki so predlagali, da Mednarodni znanstveni svet (ISC) – s svojim pluralističnim članstvom iz družbenih in naravoslovnih ved – vzpostavi postopek za izdelavo in vzdrževanje označenega okvira/kontrolnega seznama tveganj, koristi, grožnje in priložnosti, povezane s hitro premikajočimi se digitalnimi tehnologijami, vključno – a ne omejeno na – AI. Namen kontrolnega seznama bi bil obvestiti vse zainteresirane strani – vključno z vladami, trgovinskimi pogajalci, regulatorji, civilno družbo in industrijo – o morebitnih prihodnjih scenarijih in bi oblikoval, kako bi lahko upoštevali priložnosti, koristi, tveganja in druga vprašanja.
Rezultati ne bi delovali kot ocenjevalni organ, ampak kot prilagodljiv in razvijajoč se analitični okvir, ki bi lahko podprl vse ocenjevalne in regulativne postopke, ki bi jih lahko razvile zainteresirane strani, vključno z vladami in večstranskim sistemom. Vsak analitični okvir bi moral biti v idealnem primeru razvit neodvisno od vladnih in industrijskih trditev glede na njihove razumljive interese. Prav tako mora biti čim bolj pluralističen v svojih perspektivah, tako da zajema vse vidike tehnologije in njenih posledic.
Ta dokument za razpravo ponuja oris začetnega okvira za obveščanje o številnih globalnih in nacionalnih razpravah, ki potekajo v zvezi z umetno inteligenco.
Ozadje: Zakaj analitični okvir?
Hiter pojav tehnologije s kompleksnostjo in posledicami umetne inteligence spodbuja številne trditve o velikih koristih. Izzove pa tudi strahove pred velikimi tveganji, od individualne do geostrateške ravni. Velik del razprave poteka na skrajnih koncih spektra pogledov, zato je potreben bolj pragmatičen pristop. Tehnologija umetne inteligence se bo še naprej razvijala in zgodovina kaže, da ima tako rekoč vsaka tehnologija koristne in škodljive namene. Vprašanje je torej: kako lahko s to tehnologijo dosežemo ugodne rezultate, hkrati pa zmanjšamo tveganje škodljivih posledic, od katerih so nekatere lahko eksistencialnega obsega?
Prihodnost je vedno negotova, vendar je glede umetne inteligence in generativne umetne inteligence dovolj verodostojnih in strokovnih glasov, ki spodbujajo razmeroma previdnostni pristop. Poleg tega je potreben sistemski pristop, saj je umetna inteligenca razred tehnologij s široko uporabo in uporabo s strani več vrst uporabnikov. To pomeni, da je treba pri obravnavi posledic umetne inteligence za posameznike, družbeno življenje, državljansko življenje, družbeno življenje in v globalnem kontekstu upoštevati celoten kontekst.
Za razliko od večine preteklih tehnologij imajo digitalne in sorodne tehnologije zelo kratko obdobje od razvoja do izdaje, kar v veliki meri vodijo interesi produkcijskih podjetij ali agencij. AI je hitro prodoren; nekatere lastnosti lahko postanejo očitne šele po sprostitvi, tehnologija pa ima lahko zlonamerne in dobronamerne aplikacije. Razsežnosti pomembnih vrednosti bodo vplivale na to, kako se dojema uporaba. Poleg tega so lahko v igri geostrateški interesi.
Do danes je bila ureditev virtualne tehnologije večinoma obravnavana skozi lečo "načel" in prostovoljnega izpolnjevanja. Nedavno pa se je razprava obrnila na vprašanja nacionalnega in večstranskega upravljanja, vključno z uporabo regulativnih in drugih političnih orodij. Trditve za ali proti umetni inteligenci so pogosto hiperbolične in jih je – glede na naravo tehnologije – težko oceniti. Vzpostavitev učinkovitega globalnega ali nacionalnega sistema tehnološke regulacije bo izziv in vzdolž verige bo potrebnih več plasti odločanja na podlagi informacij o tveganju, od izumitelja do proizvajalca, uporabnika, vlade in večstranskega sistema.
Medtem ko so UNESCO, OECD in Evropska komisija med drugim razglasili načela na visoki ravni in potekajo različne razprave na visoki ravni v zvezi z vprašanji morebitne regulacije, obstaja velika ontološka vrzel med takimi načeli in okvirom upravljanja ali regulativnim okvirom. Kakšna je taksonomija premislekov, ki bi jih regulator morda moral upoštevati? Ozko usmerjeno oblikovanje bi bilo nespametno glede na široke posledice teh tehnologij. Ta potencial je bil predmet številnih komentarjev, tako pozitivnih kot negativnih.
Razvoj analitičnega okvira
ISC je primarna globalna nevladna organizacija, ki povezuje naravoslovne in družbene vede. Njegov globalni in disciplinarni doseg pomeni, da je v dobrem položaju za ustvarjanje neodvisnih in globalno pomembnih nasvetov za obveščanje o zapletenih odločitvah, ki so pred nami, zlasti ker so trenutni glasovi na tem prizorišču večinoma iz industrije ali iz velikih tehnoloških sil. Po obsežni razpravi v zadnjih mesecih, vključno z obravnavo nevladnega postopka ocenjevanja, je ISC sklenil, da bi bil njegov najbolj koristen prispevek izdelava in vzdrževanje prilagodljivega analitičnega okvira, ki bi ga lahko uporabili kot osnovo za diskurz in odločanje vse zainteresirane strani, tudi med kakršnim koli formalnim postopkom ocenjevanja, ki se pojavi.
Ta okvir bi bil v obliki splošnega kontrolnega seznama, ki bi ga lahko uporabljale tako vladne kot nevladne institucije. Ogrodje identificira in raziskuje potencial tehnologije, kot je umetna inteligenca in njene izpeljanke, skozi široko lečo, ki zajema blaginjo ljudi in družbe ter zunanje dejavnike, kot so ekonomija, politika, okolje in varnost. Nekateri vidiki kontrolnega seznama so morda pomembnejši od drugih, odvisno od konteksta, vendar so boljše odločitve verjetnejše, če se upoštevajo vsa področja. To je inherentna vrednost pristopa s kontrolnim seznamom.
Predlagani okvir izhaja iz prejšnjega dela in razmišljanja, vključno s poročilom o digitalni blaginji Mednarodne mreže za vladno znanstveno svetovanje (INGSA).1 in klasifikacijski okvir OECD AI2 predstaviti celoto možnih priložnosti, tveganj in učinkov umetne inteligence. Ti prejšnji izdelki so bili glede na svoj namen bolj omejeni glede na njihov čas in kontekst, zato obstaja potreba po splošnem okviru, ki predstavlja celoten obseg vprašanj tako kratkoročno kot dolgoročno.
Medtem ko je bil razvit za upoštevanje umetne inteligence, bi se ta analitični okvir lahko uporabil za katero koli hitro razvijajočo se tehnologijo. Težave so na splošno razvrščene v naslednje kategorije za nadaljnjo preučitev:
Vključen je seznam premislekov za vsako od zgornjih kategorij skupaj z njihovimi priložnostmi in posledicami. Nekateri so pomembni za posebne primere ali aplikacije umetne inteligence, medtem ko so drugi generični in neodvisni od platforme ali uporabe. Nobenega posameznega vidika, vključenega tukaj, ne bi smeli obravnavati kot prednostnega in kot takega je treba preučiti vse.
Kako bi lahko uporabili ta okvir?
To ogrodje je mogoče uporabiti na naslednje načine, vendar ne omejeno na:
Naslednja tabela je zgodnje oblikovanje dimenzij analitičnega ogrodja. Odvisno od tehnologije in njene uporabe bodo nekatere komponente pomembnejše od drugih. Primeri so navedeni, da ponazorijo, zakaj je lahko vsaka domena pomembna; v kontekstu bi okvir zahteval kontekstualno ustrezno razširitev. Prav tako je pomembno razlikovati med razvojem platforme in splošnimi težavami, ki se lahko pojavijo med posameznimi aplikacijami.
Razsežnosti, ki jih je treba upoštevati pri ocenjevanju nove tehnologije
| Začetni osnutek razsežnosti, ki jih bo morda treba upoštevati pri ocenjevanju nove tehnologije | ||
| Dimenzije udarca | Merila | Primeri, kako se to lahko odraža v analizi |
| Posameznik/sam | Umetnost uporabnikov | Kako kompetentni in se zavedajo lastnosti sistema so verjetni uporabniki, ki bodo komunicirali s sistemom? Kako bodo prejeli ustrezne uporabniške informacije in opozorila? |
| Prizadete zainteresirane strani | Kdo so glavne zainteresirane strani, na katere bo sistem vplival (tj. posamezniki, skupnosti, ranljivi, sektorski delavci, otroci, oblikovalci politik, strokovnjaki)? | |
| Izbirnost | Ali je uporabnikom zagotovljena možnost odjave iz sistema; ali jim je treba dati priložnost, da izpodbijajo ali popravijo rezultate? | |
| Tveganja za človekove pravice in demokratične vrednote | Ali lahko sistem vpliva (in v kateri smeri) na človekove pravice, vključno z, a ne omejeno na, zasebnostjo, svobodo izražanja, pravičnostjo, tveganjem diskriminacije itd.? | |
| Možni učinki na dobro počutje ljudi | Ali bi lahko sistem vplival (in v kateri smeri) na dobro počutje posameznega uporabnika (tj. na kakovost zaposlitve, izobrazbo, socialne interakcije, duševno zdravje, identiteto, okolje)? | |
| Možnost premestitve človeškega dela | Ali obstaja možnost, da sistem avtomatizira naloge ali funkcije, ki so jih izvajali ljudje? Če je tako, kakšne so posledice na nižji stopnji? | |
| Potencial za manipulacijo identitete, vrednot ali znanja | Ali je sistem zasnovan za ali potencialno sposoben manipulirati z uporabnikovo identiteto ali nastavljenimi vrednostmi ali širiti dezinformacije? Ali obstaja možnost lažnih ali nepreverljivih trditev o strokovnem znanju? | |
| Merila lastne vrednosti | Ali obstaja pritisk za prikazovanje idealiziranega sebe? Ali lahko avtomatizacija nadomesti občutek osebne izpolnitve? Ali obstaja pritisk na tekmovanje s sistemom na delovnem mestu? Ali je ugled posameznika težje zaščititi pred dezinformacijami? | |
| Zasebnost | Ali obstajajo razpršene odgovornosti za varovanje zasebnosti in ali obstajajo kakršne koli predpostavke o tem, kako se osebni podatki uporabljajo? | |
| avtonomija | Ali bi sistem lahko vplival na človeško avtonomijo tako, da bi končne uporabnike povzročil preveliko zanašanje na tehnologijo? | |
| Človeški razvoj | Ali obstaja vpliv na pridobivanje ključnih spretnosti za človeški razvoj, kot so izvršilne funkcije, medosebne spretnosti, spremembe v času pozornosti, ki vpliva na učenje, razvoj osebnosti, skrbi za duševno zdravje itd.? | |
| Osebno zdravstveno varstvo | Ali obstajajo trditve o prilagojenih rešitvah zdravstvene oskrbe? Če je tako, ali so potrjeni v skladu z regulativnimi standardi? | |
| Duševno zdravje | Ali obstaja tveganje za povečano anksioznost, osamljenost ali druge težave z duševnim zdravjem ali lahko tehnologija ublaži takšne vplive? | |
| Človeška evolucija | Ali lahko tehnologija vodi do sprememb v evoluciji človeka? | |
| Dimenzije udarca | Merila | Opis |
| Družba/družabno življenje | Družbene vrednote | Ali sistem temeljito spreminja naravo družbe ali omogoča normalizacijo idej, ki so prej veljale za antisocialne, ali krši družbene vrednote kulture, v kateri se uporablja? |
| Druženje | Ali obstaja učinek na smiselne človeške stike, vključno s čustvenimi odnosi? | |
| Kapital | Ali je verjetno, da bo aplikacija/tehnologija zmanjšala ali povečala neenakosti (tj. ekonomske, socialne, izobraževalne, geografske)? | |
| Zdravje prebivalstva | Ali obstaja možnost, da sistem pospeši ali spodkoplje zdravstvene namene prebivalstva? | |
| Kulturno izražanje | Ali je povečanje kulturnega prisvajanja ali diskriminacije verjetno ali težje obravnavati? Ali zanašanje na sistem odločanja potencialno izključuje ali marginalizira dele družbe? | |
| Javno izobraževanje | Ali obstaja učinek na vloge učiteljev ali izobraževalne ustanove? Ali sistem poudarja ali zmanjšuje neenakost med študenti in digitalni razkorak? Ali je intrinzična vrednost znanja ali kritičnega razumevanja napredovala ali omajana? | |
| Izkrivljene realnosti | Ali so metode, ki jih uporabljamo za razločevanje resnice, še vedno uporabne? Ali je ogroženo dojemanje realnosti? | |
| Gospodarski kontekst (trgovina) | Industrijski sektor | V katerem industrijskem sektorju je sistem nameščen (tj. finance, kmetijstvo, zdravstvo, izobraževanje, obramba)? |
| Poslovni model | V kateri poslovni funkciji je sistem zaposlen in v kakšni funkciji? Kje se sistem uporablja (zasebno, javno, neprofitno)? | |
| Vpliv na kritične dejavnosti | Ali bi motnja v delovanju ali dejavnosti sistema vplivala na bistvene storitve ali kritično infrastrukturo? | |
| Dih razmestitve | Kako je sistem nameščen (ozko znotraj organizacije v primerjavi z razširjenim nacionalnim/mednarodnim)? | |
| Tehnična zrelost (TRL) | Kako tehnično zrel je sistem? | |
| Tehnološka suverenost | Ali tehnologija poganja večjo koncentracijo tehnološke suverenosti. | |
| Prerazporeditev dohodka in nacionalni fiskalni vzvodi | Ali bi lahko bile ogrožene glavne vloge suverene države (tj. rezervne banke)? Ali bo sposobnost države, da izpolni pričakovanja državljanov in posledice (tj. socialne, gospodarske, politične) napredovala ali zmanjšala? | |
| Dimenzije udarca | Merila | Opis |
| Državljansko življenje | Upravljanje in javna služba | Ali lahko na mehanizme upravljanja in globalne sisteme upravljanja vpliva pozitivno ali negativno? |
| Novice | Ali bo javni diskurz verjetno postal bolj ali manj polariziran in zasidran na populacijski ravni? Bo to vplivalo na stopnjo zaupanja v medije? Ali bodo konvencionalna novinarska etika in standardi integritete še bolj prizadeti? | |
| Pravilo zakona | Ali bo to vplivalo na zmožnost prepoznavanja posameznikov ali organizacij, ki jih je treba prevzeti na odgovornost (tj. kakšno odgovornost dodeliti algoritmu za neugodne rezultate)? Ali to povzroča izgubo suverenosti (tj. okoljske, davčne, socialne politike, etike)? | |
| Politika in socialna kohezija | Ali obstaja možnost bolj utrjenih političnih stališč in manj možnosti za doseganje soglasja? Ali obstaja možnost nadaljnje marginalizacije skupin? Ali so kontradiktorni slogi politike bolj ali manj verjetni? | |
| Geostrateški/geopolitični kontekst | Natančen nadzor | Ali so sistemi usposobljeni za individualne vedenjske in biološke podatke, in če so, ali bi jih lahko uporabili za izkoriščanje posameznikov ali skupin? |
| Digitalna kolonizacija | Ali državni ali nedržavni akterji lahko izkoristijo sisteme in podatke za razumevanje in nadzor prebivalstva in ekosistemov drugih držav ali za spodkopavanje jurisdikcijskega nadzora? | |
| Geopolitična konkurenca | Ali sistem vpliva na konkurenco med državami in tehnološkimi platformami za dostop do individualnih in skupnih podatkov za gospodarske ali strateške namene? | |
| Trgovina in trgovinski sporazumi | Ali ima sistem posledice za mednarodne trgovinske sporazume? | |
| Sprememba svetovnih moči | Ali je status nacionalnih držav kot glavnih geopolitičnih akterjev na svetu ogrožen? Ali bodo tehnološka podjetja imela moč, ki je bila nekoč rezervirana za nacionalne države, in ali postajajo neodvisni suvereni akterji? | |
| Dezinformacija | Ali je državnim in nedržavnim akterjem lažje proizvajati in razširjati dezinformacije, ki vplivajo na družbeno kohezijo, zaupanje in demokracijo? | |
| okoljska | Poraba energije in virov (ogljični odtis) | Ali sistem in zahteve povečujejo porabo energije in virov nad povečanjem učinkovitosti, doseženim z aplikacijo? |
| Dimenzije udarca | Merila | Opis |
| Podatki in vnos | Odkrivanje in zbiranje | Ali podatke in vnos zbirajo ljudje, avtomatizirani senzorji ali oboje? |
| Izvor podatkov | Kar zadeva podatke, ali so ti zagotovljeni, opazovani, sintetični ali izpeljani? Ali obstaja zaščita vodnega žiga za potrditev porekla? | |
| Dinamična narava podatkov | Ali so podatki dinamični, statični, občasno posodobljeni ali posodobljeni v realnem času? | |
| Pravice | Ali so podatki zaščiteni, javni ali osebni (tj. povezani z določljivimi posamezniki)? | |
| Identifikacija osebnih podatkov | Če gre za osebne podatke, ali so anonimizirani ali psevdonimizirani? | |
| Struktura podatkov | Ali so podatki strukturirani, polstrukturirani, kompleksno strukturirani ali nestrukturirani? | |
| Oblika podatkov | Ali je format podatkov in metapodatkov standardiziran ali nestandardiziran? | |
| Lestvica podatkov | Kakšna je lestvica nabora podatkov? | |
| Ustreznost in kakovost podatkov | Ali nabor podatkov ustreza namenu? Ali je velikost vzorca primerna? Je dovolj reprezentativen in popoln? Kako hrupni so podatki? Je nagnjen k napakam? | |
| Model | Dostopnost informacij | Ali so na voljo informacije o modelu sistema? |
| Vrsta modela AI | Ali je model simboličen (človeško ustvarjena pravila), statistični (uporablja podatke) ali hibriden? | |
| Pravice, povezane z modelom | Ali je model odprtokoden ali lastniški, ga upravljajo sami ali tretji? | |
| Enotni ali več modelov | Ali je sistem sestavljen iz enega modela ali več med seboj povezanih modelov? | |
| Generativno ali diskriminativno | Je model generativen, diskriminativen ali oboje? | |
| Izdelava makete | Ali se sistem uči na podlagi pravil, ki jih je napisal človek, iz podatkov, z nadzorovanim učenjem ali z učenjem z okrepitvijo? | |
| Razvoj modela (premik AI) | Ali se model razvija in/ali pridobiva sposobnosti z interakcijo s podatki na terenu? | |
| Zvezno ali centralno učenje | Ali se model usposablja centralno ali v več lokalnih strežnikih ali "robnih" napravah? | |
| Razvoj in vzdrževanje | Ali je model univerzalen, prilagodljiv ali prilagojen podatki igralca AI? | |
| Deterministični ali verjetnostni | Ali je model uporabljen na determinističen ali verjetnosten način? | |
| Transparentnost modela | Ali so uporabnikom na voljo informacije, ki jim omogočajo razumevanje rezultatov in omejitev modela ali omejitev uporabe? | |
| Računska omejitev | Ali obstajajo računalniške omejitve sistema? Ali lahko napovemo skoke zmogljivosti ali zakone skaliranja? | |
| Dimenzije udarca | Merila | Opis |
| Naloga in rezultat | Naloge, ki jih izvaja sistem | Katere naloge opravlja sistem (tj. prepoznavanje, zaznavanje dogodkov, napovedovanje)? |
| Združevanje nalog in dejanj | Ali sistem združuje več nalog in dejanj (tj. sisteme za ustvarjanje vsebine, avtonomne sisteme, nadzorne sisteme)? | |
| Stopnja avtonomije sistema | Kako avtonomna so dejanja sistema in kakšno vlogo ima človek? | |
| Stopnja človeške vpletenosti | Ali obstaja človeška vpletenost, ki nadzoruje celotno dejavnost sistema AI in se lahko odloči, kdaj in kako uporabiti sistem v kateri koli situaciji? | |
| Osnovna aplikacija | Ali sistem spada v osrednje področje uporabe, kot so tehnologije človeškega jezika, računalniški vid, avtomatizacija in/ali optimizacija ali robotika? | |
| Ocenjevanje | Ali so na voljo standardi ali metode za ocenjevanje rezultatov sistema ali obravnavanje nepredvidenih pojavnih lastnosti? | |
Ključ do viri deskriptorjev
Golo besedilo:
Gluckman, P. in Allen, K. 2018. Razumevanje dobrega počutja v kontekstu hitrih digitalnih in z njimi povezanih transformacij. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf
Krepko besedilo:
OECD. 2022. Okvir OECD za klasifikacijo sistemov umetne inteligence. OECD Digital Economy Papers, št. 323, OECD Publishing, Pariz. https://oecd.ai/en/classification
Ležeče besedilo:
Novi deskriptorji (iz več virov)
Pot naprej
Glede na odziv na ta dokument za razpravo bi ISC oblikoval strokovno delovno skupino za nadaljnji razvoj ali spremembo zgornjega analitičnega okvira, s katerim bi lahko deležniki celovito preučili morebitne pomembne razvoje platform ali dimenzij uporabe. Delovna skupina bi bila disciplinarno, geografsko in demografsko raznolika, s strokovnim znanjem in izkušnjami, ki bi segala od ocene tehnologije do javne politike, od človekovega razvoja do sociologije ter študij prihodnosti in tehnologije.
Če želite sodelovati s tem dokumentom za razpravo, obiščite Council.science/publications/framework-digital-technologies
Priznanja
Pri pripravi tega dokumenta, ki ga je pripravil/a Sir Peter Gluckman, predsednik ISC in Hema Sridhar, nekdanja glavna znanstvenica na Ministrstvu za obrambo, zdaj pa višja raziskovalna sodelavka na Univerzi v Aucklandu na Novi Zelandiji.
Še posebej se zahvaljujemo lordu Martinu Reesu, nekdanjemu predsedniku Kraljeve družbe in soustanovitelju Centra za preučevanje eksistencialnih tveganj Univerze v Cambridgeu; Profesor Shivaji Sondhi, profesor fizike, Univerza v Oxfordu; Profesor K Vijay Raghavan, nekdanji glavni znanstveni svetovalec indijske vlade; Amandeep Singh Gill, odposlanec generalnega sekretarja ZN za tehnologijo; dr. Seán Óh Éigeartaigh, izvršni direktor, Center za preučevanje eksistencialnih tveganj, Univerza v Cambridgeu; Amanda-June Brawner, višja politična svetovalka in Ian Wiggins, direktor mednarodnih zadev, Royal Society UK; dr. Jerome Duberry, dr. Marie-Laure Salles, direktorica Geneva Graduate Institute; g. Chor Pharn Lee, Center za strateško prihodnost, kabinet predsednika vlade, Singapur; Barend Mons in dr. Simon Hodson, Odbor za podatke (CoDATA); prof. Yuko Harayama, Japonska; Profesor Rémi Quirion, predsednik INGSA; dr. Claire Craig, Univerza v Oxfordu in nekdanja vodja oddelka za predvidevanje, vladni urad za znanost; in prof Yoshua Bengio, znanstveni svetovalni odbor generalnega sekretarja ZN in Université de Montréal. Pristop kontrolnega seznama je bil na splošno podprt in poudarjena je bila pravočasnost vsakega ukrepa ISC.
Slika: adamichi na iStocku