Trosolwg

Mae gan ddeallusrwydd artiffisial y potensial i gael effaith sylweddol ar unigolion, cymunedau a chymdeithas. 

Er mwyn sicrhau bod effaith eich prosiect deallusrwydd artiffisial yn gadarnhaol ac nad yw'n niweidio'r rhai yr effeithir arnynt yn anfwriadol, dylech chi a'ch tîm sicrhau bod ystyried moeseg a diogelwch deallusrwydd artiffisial yn flaenoriaeth uchel.

Bydd ystyriaethau moesegol yn codi yn ystod pob cam o'ch prosiect deallusrwydd artiffisial. Defnyddiwch arbenigedd a chydweithrediad gweithredol holl aelodau'r tîm i fynd i'r afael â hwy, gan gynnwys:

  • gwyddonwyr data
  • peirianwyr data
  • arbenigwyr parth
  • rheolwyr cyflenwi
  • arweinwyr adrannol

Ystyried sut i ddefnyddio'r Fframwaith Moeseg Data mewn unrhyw brosiect.

Deall beth yw moeseg deallusrwydd artiffisial

Mae moeseg deallusrwydd artiffisial yn set o werthoedd, egwyddorion a thechnegau sy'n defnyddio safonau a dderbynnir yn eang i arwain ymddygiad moesol wrth ddatblygu a defnyddio systemau deallusrwydd artiffisial.

Daeth maes moeseg deallusrwydd artiffisial i'r amlwg yn sgil bod mynd i'r afael â'r niwed unigol a chymdeithasol y gallai systemau deallusrwydd artiffisial ei achosi. 

Anaml y bydd y niwed hwn yn codi o ganlyniad i ddewis bwriadol - nid yw'r rhan fwyaf o ddatblygwyr AI eisiau adeiladu systemau sy'n ddiduedd neu'n rhagfarnllyd na chwaith systemau sy'n torri  ar breifatrwydd defnyddwyr.

Y prif ffyrdd y gall systemau AI achosi niwed anwirfoddol yw:

  • camddefnydd - defnyddir systemau at ddibenion heblaw'r rhai y cawsant eu cynllunio a'u bwriadu ar eu cyfer
  • dyluniad amheus - nid yw crewyr wedi ystyried materion technegol yn drylwyr yn ymwneud â thuedd algorithmig a risgiau diogelwch
  • canlyniadau negyddol anfwriadol - nid yw crewyr wedi ystyried yn drylwyr yr effeithiau negyddol posibl y gallai eu systemau eu cael ar yr unigolion a'r cymunedau yr effeithir arnynt
  • allbwn annilys - mae'r system yn cynhyrchu canlyniadau nad ydynt yn real neu'n gywir ond ymddengys eu bod, a heb hyfforddiant digonol ynghylch eu diffygion, fe ddibynnir arnynt ac ni chant eu cwestiynu.

Mae maes moeseg deallusrwydd artiffisial yn lliniaru'r niwed hwn trwy ddarparu'r gwerthoedd, yr egwyddorion a'r technegau sydd eu hangen ar dimau prosiect i gynhyrchu cymwysiadau deallusrwydd artiffisial moesegol, teg a diogel.

Amrywio y modd ewch ati i lywodraethu prosiectau lle defnyddir AI

Bydd teclyn neu wasanaeth AI sy'n hidlo e-byst sbam, er enghraifft, yn cyflwyno llai o heriau moesegol nag un sy'n nodi plant sy'n agored i niwed. [1] 

Dylech chi a'ch tîm lunio gweithdrefnau llywodraethu a phrotocolau ar gyfer pob prosiect gan ddefnyddio Deallusrwydd Artiffisial, yn dilyn gwerthusiad gofalus o effeithiau cymdeithasol a moesegol.

Darllenwch y canllawiau moeseg a diogelwch AI cynhwysfawr Sefydliad Alan Turing.

Sefydlu blociau adeiladu moesegol ar gyfer eich prosiect AI

Sefydlu blociau adeiladu moesegol ar gyfer cyflawni eich prosiect AI yn gyfrifol. 

Mae hyn yn cynnwys adeiladu diwylliant o arloesi cyfrifol a phensaernïaeth lywodraethu er mwyn dod â gwerthoedd ac egwyddorion deallusrwydd artiffisial moesegol, teg a diogel yn fyw.

Adeiladu diwylliant o arloesi cyfrifol

Er mwyn adeiladu a chynnal diwylliant o gyfrifoldeb, gyda'ch tîm, nodwch 4 nod ar gyfer eich prosiect deallusrwydd artiffisial wrth i chi fynd ati i ddylunio, datblygu a defnyddio. Sicrhewch ei fod yn:

  • caniateir yn foesegol: ystyried yr effeithiau y gallai ei gael ar les rhanddeiliaid a chymunedau yr effeithir arnynt
  • yn deg ac yn anwahaniaethol: ystyried ei botensial i gael effeithiau gwahaniaethol ar unigolion a grwpiau cymdeithasol, lliniaru rhagfarnau a allai ddylanwadu ar ganlyniad eich offeryn neu wasanaeth deallusrwydd artiffisial, a bod yn ymwybodol o faterion tegwch trwy gydol y cylch bywyd dylunio a gweithredu
  • yn deilwng o ymddiriedaeth y cyhoedd: gwarantu cymaint â phosibl o ran diogelwch, cywirdeb, dibynadwyedd, diogelwch a chadernid eich cynnyrch
  • y gellir ei gyfiawnhau: blaenoriaethu tryloywder sut rydych chi'n dylunio ac yn gweithredu'ch teclyn neu wasanaeth deallusrwydd artiffisial, a chyfiawnhau a dehongli ei benderfyniadau a'i ymddygiadau

Mae blaenoriaethu'r nodau hyn yn helpu i adeiladu diwylliant o arloesi cyfrifol. 

Er mwyn sicrhau eu bod wedi'u hymgorffori'n llawn yn eich prosiect, sefydlwch bensaernïaeth lywodraethu sy'n cynnwys:

  • fframwaith gwerthoedd Moesegol
  • set o egwyddorion y mae modd eu rhoi ar waith
  • fframwaith llywodraethu sy'n seiliedig ar brosesau

Dechreuwch gyda fframwaith o werthoedd moesegol

Deall fframwaith gwerthoedd moesegol sy'n cefnogi, yn gwarantu ac yn sicrhau eich bod yn dylunio ar gyfer ac yn defnyddio AI yn gyfrifol. 

'Gwerthoedd SUM' mae Sefydliad Alan Turing yn galw'r rhain:

  • parchu urddas unigolion
  • cydweithio yn onest, yn agored ac yn gynhwysol
  • gofalu am les pawb
  • amddiffyn blaenoriaethau gwerthoedd cymdeithasol, cyfiawnder a budd y cyhoedd

Mae'r gwerthoedd hyn yn:

  • darparu fframwaith hygyrch fel y gallwch chi a'ch tîm archwilio a thrafod agweddau moesegol deallusrwydd artiffisial
  • sefydlu meini prawf wedi'u diffinio'n dda sy'n eich galluogi chi a'ch tîm i werthuso pa mor foesegol yw eich prosiect deallusrwydd artiffisial

Gallwch ddarllen am Werthoedd SUM yng nganllawiau moeseg a diogelwch AI Sefydliad Alan Turing.

Sefydlu set o egwyddorion y mae modd eu gweithredu

Gall y gwerthoedd SUM eich helpu i ystyried caniatâd moesegol eich prosiect deallusrwydd artiffisial, ond ni chant eu darparu'n benodol ar gyfer nodweddion dylunio, datblygu a gweithredu system deallusrwydd artiffisial.

Mae systemau AI yn cyflawni mwy a mwy o dasgau a wnaed yn flaenorol gan bobl Er enghraifft, gall systemau deallusrwydd artiffisial sgrinio CV fel rhan o broses recriwtio. 

Ond yn wahanol i recriwtwyr dynol, ni allwch ddal system Deallusrwydd Artiffisial yn uniongyrchol gyfrifol nac yn atebol am wrthod swydd i ymgeiswyr.

Mae'r diffyg atebolrwydd system Ddeallusrwydd Artiffisial o'r math hwn yn creu angen am set o egwyddorion gweithredadwy wedi'u teilwra i ddylunio a defnyddio systemau deallusrwydd artiffisial. 

Mae Sefydliad Alan Turing yn galw'r rhain yn ‘Egwyddorion Llwybr Cyflym':

  • tegwch
  • atebolrwydd
  • cynaliadwyedd
  • tryloywder

O edrych yn ofalus ar yr Egwyddorion Llwybr Cyflym, gallwch:

  • sicrhau bod eich prosiect yn deg ac yn atal rhagfarn neu wahaniaethu
  • diogelu ymddiriedaeth y cyhoedd yng ngallu eich prosiect i ddarparu deallusrwydd artiffisial diogel a dibynadwy

Tegwch

Os yw'ch system Deallusrwydd Artiffisial yn prosesu data cymdeithasol neu ddemograffig, dylech ei ddylunio i fodloni isafswm lefel o wahaniaethol nad yw'n niweidiol. Gallwch wneud hyn trwy:

  • ddefnyddio setiau data teg a chyfartal yn unig (tegwch data)
  • cynnwys nodweddion, prosesau a strwythurau dadansoddol rhesymol ym mhensaernïaeth eich model (tegwch dylunio)
  • atal y system rhag cael unrhyw effaith wahaniaethol (tegwch canlyniadau)
  • gweithredu'r system mewn ffordd ddiduedd (sicrhau tegwch)

 Atebolrwydd

Dylunio eich system deallusrwydd artiffisial i fod yn gwbl atebol ag yn un y mae modd ei harchwilio. Gallwch wneud hyn trwy:

  • sefydlu cadwyn barhaus o gyfrifoldeb am yr holl rolau sy'n gysylltiedig â chynllunio a gweithredu'r prosiect
  • gweithredu monitro gweithgaredd er mwyn caniatáu ar gyfer goruchwylio ac adolygu drwy gydol y prosiect cyfan

Cynaliadwyedd

Mae cynaliadwyedd technegol y systemau hyn yn y pen draw yn dibynnu ar eu diogelwch, gan gynnwys eu cywirdeb, dibynadwyedd, diogelwch a chadernid.

Dylech sicrhau bod dylunwyr a defnyddwyr yn parhau i fod yn ymwybodol o:

  • yr effeithiau trawsnewidiol y gall systemau AI eu cael ar unigolion a chymdeithas
  • effaith eich system AI ar y byd go iawn

Tryloywder

Dylai dylunwyr a gweithredwyr systemau AI allu:

  • esbonio i randdeiliaid yr effeithir arnynt sut a pham y perfformiodd model fel y gwnaeth mewn cyd-destun penodol
  • Er enghraifft, gall systemau deallusrwydd artiffisial sgrinio CV fel rhan o broses recriwtio.

Dysgu sut i asesu'r meini prawf hyn ar ganllawiau moeseg a diogelwch deallusrwydd artiffisial gan Sefydliad Alan Turing.

Adeiladu fframwaith llywodraethu sy'n seiliedig ar brosesau

Y dull terfynol i sicrhau eich bod yn defnyddio Deallusrwydd Artiffisial yn foesegol, yn deg ac yn ddiogel yw adeiladu fframwaith llywodraethu sy'n seiliedig ar brosesau. 

Mae Sefydliad Alan Turing yn ei alw'n ‘Fframwaith PBG'. 

Ei brif bwrpas yw integreiddio'r Gwerthoedd SUM a'r Egwyddorion Trac FAST ar draws systemau'n gweithredu Deallusrwydd Artiffisial o fewn gwasanaeth.

Bydd adeiladu Fframwaith PBG da ar gyfer eich prosiect AI yn rhoi trosolwg i'ch tîm o:

  • yr aelodau tîm perthnasol a'r rolau sy'n gysylltiedig â phob gweithred lywodraethu
  • camau perthnasol y llif gwaith lle mae angen ymyrraeth ac ystyriaeth wedi'i thargedu i gyflawni nodau llywodraethu
  • amserlenni penodol ar gyfer unrhyw werthusiadau, camau dilynol, ailasesiadau a monitro parhaus
  • protocolau clir ac wedi'i diffinio er mwyn gallu cofnodi gweithgaredd ac ar gyfer gweithredu mecanweithiau i gefnogi proses archwilio o ddechrau i ddiwedd prosiect AI

Ystyried canllawiau pellach ar rannu cyfrifoldeb a llywodraethu ar gyfer prosiectau deallusrwydd artiffisial.