Allwn ni ddefnyddio AI yn y trydydd sector?

Ffôn ar wefan ChatGPT gyda Open AI yn dangos enghreifftiau o anogwyr sgwrsio.
Llun gan Mojahid Mottakin / Unsplash

Efallai bod eich mudiad eisoes yn defnyddio Deallusrwydd Artiffisial (AI), yn chwilfrydig am AI, neu wedi cael gwybod na ddylech fod yn defnyddio AI. Yn yr erthygl hon, byddwn yn rhoi trosolwg o bethau y gallai mudiad trydydd sector eu hystyried os ydynt yn dewis defnyddio math penodol o AI o’r enw ‘AI Cynhyrchiol’ (Generative AI').  

Beth yw AI Cynhyrchiol? 

AI Cynhyrchiol yw'r AI a drafodwyd fwyaf ers lansio ChatGPT ym mis Tachwedd 2022, a ddilynwyd gan lu o offer a llwyfannau tebyg fel Google Bard, Claude Bing AI a Hugging Face

Mae AI Cynhyrchiol (neu AI o hyn ymlaen) yn cyfeirio at fath o AI a all greu cynnwys, fel testun, delweddau, cerddoriaeth, neu fideos. Mae modelau AI Cynhyrchiol yn dysgu patrymau o ddata hyfforddi, a gallant gynhyrchu cynnwys newydd yn seiliedig ar y dysgu hwn. Gallai’r gallu i gynhyrchu cynnwys newydd a phenodol yn gyflym, sydd wedi’i ysgrifennu’n glir ac sy’n ymddangos yn wybodus, newid faint o ddiwydiannau a phobl sy’n gweithio, gan gynnwys yn y trydydd sector.   
 

A ddylai fy mudiad ddefnyddio AI? 

Gall AI ryddhau amser yn sylweddol o rai tasgau, gan ganiatáu ar gyfer treulio mwy o amser yn gwneud gwaith manwl, sy'n newyddion gwych i'r trydydd sector. I’r gwrthwyneb, mae’n anodd deall y dechnoleg a’r data sylfaenol sy’n llywio deallusrwydd artiffisial, sy’n golygu bod posibilrwydd y gallai AI gyfrannu at faterion o ragfarn strwythurol, a allai gael effaith ar yr union bobl y mae mudiadau’n ceisio eu cefnogi. 
 
Dros y blynyddoedd diwethaf, mae pryderon moesegol am rôl a defnydd technoleg ddigidol wedi dod yn fwy amlwg. Mae AI yn faes digidol sy’n tyfu’n gyflym, ac o ganlyniad, mae ystod o ystyriaethau moesegol yn dod i’r amlwg yn ymwneud â’r dechnoleg, yn ogystal â swm sylweddol o heip sy’n aml yn ei gwneud yn anodd didoli’r hyn sy’n wir o’r hyn sy’n ffug. Un ffynhonnell rydym yn ei hargymell yn benodol ar gyfer gwybodaeth trydydd sector am AI yw Civic AI Observatory.     
 

Man cychwyn o bethau i'w hystyried wrth ddefnyddio AI 

I ddechrau, efallai y byddwch am ystyried: 

  • Sut byddai eich defnydd o AI o fudd i'r bobl rydych yn gweithio gyda nhw a/neu eich staff? 
  • Sut gallai AI effeithio’n negyddol ar y bobl rydych yn eu cefnogi a/neu eich staff? 
  • Sut byddwch yn hysbysu pobl eich bod yn defnyddio AI? 
  • A oes mwy o werth bod tasg yn cael ei chyflawni gan berson yn hytrach nag AI? 
  • Ydych chi'n deall sut gallai AI effeithio ar eich mudiad neu'r bobl sy'n defnyddio'ch gwasanaeth? 
  • A fydd yn eich helpu i gyflawni eich nodau?  
  • Ble ddylech chi fod yn defnyddio/peidio â defnyddio AI?
  • Beth yw effaith amgylcheddol defnyddio AI?  

Mae Catalyst wedi ysgrifennu canllaw ar sut y gall y trydydd sector ddefnyddio AI yn foesegol

Rheoli ansawdd 

Mae AI yn gallu cynhyrchu testun sy'n dechnegol gywir ond weithiau gall ddioddef rhithweledigaethau AI. Mae yna hefyd rai enghreifftiau o lên-ladrad lle mae'r AI wedi copïo darnau sylweddol o destunau neu weithiau celf o ddeunydd sydd dan hawlfraint. Ar hyn o bryd mae rhai cwmnïau sy’n gyfrifol am AI yn cynnig amddiffyniad cyfreithiol ar gyfer torri hawlfraint wrth ddefnyddio modelau y talwyd amdanynt. Fodd bynnag, byddem yn cynghori bod yn ofalus gan nad yw cynseiliau cyfreithiol ynghylch defnyddio AI wedi’u sefydlu’n glir.   

Wrth ddefnyddio AI i greu cynnwys, mae’n ddefnyddiol cael proses i adolygu a sicrhau ei fod yn gywir a, lle bo modd, i wirio nad oes hawlfraint arno. 

Defnyddio AI gyda neu ar bobl?  

Er nad oes gan AI ei hun ddychymyg, mae'n gallu cyfuno syniadau newydd a helpu i ehangu syniad creadigol. Fodd bynnag, ar hyn o bryd nid oes unrhyw enghreifftiau o sut y gall cymunedau gymryd rhan gydag AI i gyd-gynhyrchu syniadau newydd ar gyfer materion cymdeithasol. Mae hwn yn faes sy’n dod i’r amlwg, ac mae’n bwysig rhannu a bod yn ymwybodol o’r angen i ddatblygu prosesau (neu ddysgu oddi wrth eraill) sy’n cynnwys cymunedau yn y defnydd o dechnoleg newydd. 
  

Rheoleiddio ac AI 

Mae digwyddiadau rhyngwladol proffil uchel wedi’u cynnal ar reoleiddio AI, ond nid yw mudiadau trydydd sector wedi chwarae rhan amlwg mewn trafodaethau ar reoleiddio. 
 
Mae papur gwyn llywodraeth y DU (Awst 2023) yn nodi ei dull o reoleiddio AI. Ni fydd set gynhwysfawr newydd o ddeddfau AI ac ni fydd rheoleiddiwr AI newydd. Yn lle hynny, bydd rheoleiddwyr, gan gynnwys Swyddfa Comisiynydd Gwybodaeth y DU a’r Awdurdod Ymddygiad Ariannol, yn goruchwylio sut mae eu diwydiannau’n defnyddio AI. Mae hyn yn wahanol i’r UE sy’n paratoi i gyflawni Deddf AI yr UE.  

Yn anffodus, mae yna lawer o broblemau gyda rheoleiddio AI. Ac oherwydd bod cwmnïau technoleg yn symud mor gyflym, mae llywodraethau'n aml yn gwneud eu gorau i geisio dal i fyny. 
 
Mae Canolfan Gwasanaethau Cyhoeddus Digidol Cymru yn ceisio deall ymhellach y defnydd o AI ar draws y sector cyhoeddus yng Nghymru ac yn cyflwyno cyfres o weminarau ar y pwnc.  

Dadansoddi data 

Mae AI yn gyfle mawr i’r trydydd sector ddefnyddio ei ddata. Mae rhai AI yn gadael i chi uwchlwytho data a gwneud ymholiadau, neu greu delweddau na fyddai wedi bod yn bosibl yn flaenorol heb ddadansoddwr data. Gallai hyn gynnig mewnwelediadau newydd cyffrous a allai helpu i gefnogi eu cymunedau, neu esbonio'n well y realiti cymhleth y maen nhw’n gweithio ynddynt. Fodd bynnag, mae angen ystyried hefyd

A ddylem gael polisi AI? 

Mae’n debygol y bydd cael polisi ar gyfer AI yn dod yn fwy cyffredin wrth i AI gael eu mabwysiadu a’u deall yn ehangach. Ar hyn o bryd, efallai y bydd yn haws diwygio eich polisi cyfathrebu, gan ystyried sut dylai eich mudiad ddefnyddio neu arbrofi gydag AI. 
 
Mae Code Hope Labs wedi datblygu polisi enghreifftiol y gellir ei addasu i'ch anghenion.  

Ystyriaethau moesegol 

Mae rhai AI fel ChatGPT yn gweithredu model caeedig, sy'n golygu ei bod yn anodd i unrhyw un ddarganfod sut maen nhw'n gweithio mewn gwirionedd. Gall ChatGPT hefyd weithiau ddefnyddio'r data rydych chi'n ei fewnbynnu i ddatblygu eu modelau ymhellach. Mae AI eraill fel Mistral yn defnyddio model ffynhonnell agored na fydd fel arfer yn defnyddio data y byddwch yn ei fewnbynnu i ddatblygu eu modelau, ac maent yn aml yn fwy effeithlon na modelau caeedig sy’n golygu y gallent gael lai o effaith amgylcheddol.    
 

Efallai y bydd gan rai AI ragfarnau anhysbys oherwydd eu bod wedi cael eu hyfforddi ar ffynonellau data rhagfarnllyd neu gyfyngedig, a gallant wneud rhagdybiaethau/datganiadau anghywir yn seiliedig ar y data hwn.

Hoffi'r post yma? Clicia isod i rannu