Tarve käyttää tekoälyä eettisesti
Kirjoittanut ja tarkastanut psykologi Sara González Juárez
Olet ehkä nähnyt jonkun niistä monista elokuvista, joissa ihmiset kehittivät jonkinlaisen robotin tai tietokoneen, joka toimikin sitten vastoin ihmisten etua. Nyt, kun todella kohtaamme tekoälyn eettisen käytön haasteen, olemme käännepisteessä, koska tämä teknologinen kehitys lupaa ennennäkemättömiä muutoksia. Se tuo kuitenkin myös tiettyjä haasteita ja vaikeuksia, joita täytyy pohtia.
Nämä kiihtyneet muutokset ovat synnyttäneet joukon sosiaalisia ongelmia, ja meidän pitää kamppailla pysyäksemme tämän uuden älymuodon tahdissa. Mihin toimiin meidän pitäisi ryhtyä?
Ensinnäkin meidän on asetettava moraaliset ja luultavasti myös lailliset rajat tekoälyn käytölle. Jos emme tee niin, tekoälyn käyttö saattaa ryöstäytyä käsistä.
Kuinka käyttää tekoälyä eettisesti
Tekoälystä käytävä keskustelu on laajaa ja monimutkaista. Tästä huolimatta tietyistä moraalinormeista vallitsee jonkinlainen yksimielisyys.
1. Tekoäly ihmisten etujen palveluksessa
Real Academia de Ciencias Morales y Políticasissa julkaistu artikkeli väittää, että humanistisesta näkökulmasta tekoälyn tehtävänä on minimoida ihmisten vältettävissä oleva kärsimys. Tässä tulee esiin käsitys tekoälyn haitallisesta käytöstä. Se viittaa mahdollisiin vaaroihin, joita näiden ohjelmien väärinkäyttö voi aiheuttaa yhteiskunnalle.
Siksi ihmisten turvallisuus, yksityisyys ja identiteetti on taattava. Muuten tätä kohtaa rikotaan.
2. Datadiktatuurin välttäminen
Massiivisen datan (big data) kerääminen on edistyksen moottori niinkin erilaisilla aloilla kuin lääketieteen teknologia ja taloudellinen kehitys. Mutta kun dataa käytetään väestön vääristämiseen ja eristämiseen, puhumme “datadiktatuurista”, väittää CSIC:n tiedote.
Tekoäly voisi kerätä valtavasti dataa uusien lääkehoitojen tuloksista tai terveysongelmien esiintyvyydestä. Tässä skenaariossa meidän on pohdittava esimerkiksi sitä, missä määrin on eettistä, että vakuutusyhtiöllä on pääsy näihin tietoihin tarjouksen tai vakuutusturvan tarjoamiseksi.
3. Neuro-oikeuksien kunnioittaminen
Kyseistä dataa voitaisiin käyttää myös ihmisten käyttäytymisen ennustamiseen. Tätä voitaisiin todella hyödyntää markkinoinnin alalla. Mutta jos tekoälyä halutaan käyttää eettisesti, tällaiset tiedot eivät saisi olla työkalu, joka vaikuttaa käyttäjien identiteettiin tai heidän kognitiiviseen vapauteensa. Nämä ovat neuro-oikeutemme.
Tekoälyn alalla on tärkeää varmistaa, että neuro-oikeuksia kunnioitetaan aivodatan keräämisessä, tallentamisessa, analysoinnissa ja käytössä. Tämä edellyttää tietoisen ja nimenomaisen suostumuksen hankkimista yksilöiltä ennen tietojen keräämistä heidän aivoistaan. Lisäksi tietojen yksityisyyttä ja luottamuksellisuutta on suojeltava ja niitä tulee käyttää eettisesti ja vastuullisesti.
Lisäksi neuro-oikeuksiamme kunnioittaen on varmistettava, että tekoälyä ei käytetä manipuloimaan identiteettiämme, kognitiivista vapauttamme tai autonomiaamme tai vaikuttamaan niihin kohtuuttomasti.
Tämä sisältää kaiken aivodataan perustuvan syrjinnän, leimautumisen tai manipuloinnin välttämisen. Lisäksi se tarkoittaa sen varmistamista, että tekoälyyn perustuvat päätökset ja toimet ovat avoimia, selitettäviä ja oikeudenmukaisia. Tämä on kuitenkin melkoinen haaste, koska useimmat tekoälyn kanssa toimivat mallit ovat läpinäkymättömiä. Itse asiassa ne antavat hyviä tuloksia, mutta emme tiedä miksi.
4. Ihmisarvon säilyttäminen
Tietyt työt, erityisesti hoitoa tarjoavat, katsotaan sopimattomiksi tekoälylle ja roboteille. Tämä johtuu siitä, että me ihmiset vaadimme empatiaa ja kunnioitusta. Ei esimerkiksi olisi eettistä antaa yksilölle tekoälyn ohjaamaa terapiaa, tai että se toimisi poliisina tai tuomarina.
Robottien empatian käsitys tuo ilmi erittäin mielenkiintoisia haasteita ihmisen tunteiden ja tietoisuuden vuoksi. Vaikka robotit voidaan ohjelmoida tunnistamaan ja reagoimaan ihmisten ilmeisiin, äänensävyyn ja muihin tunnevihjeisiin, niillä ei ole kykyä kokea tunteita ja ymmärtää samalla tavalla kuin me.
Economía y Sociedadissa julkaistussa artikkelissa selitetään, että älyteknologiat saavat tunteiden hallintaan liittyviä toimintoja. Näin ollen, kuten ihmiset, nekin joutuvat ristiriitaan moraalisen velvollisuuden ja sen skenaarion välillä, jossa se toteutetaan.
5. Avoimet lähteet
Tekoälystä vallitsee se ajatus, että sen koodin pitäisi olla avoin ja julkinen. Lisäksi sen kehittämisen ei pitäisi olla vain muutamien ihmisten käsissä, koska se on tekniikka, joka vaikuttaa suoraan ihmisten elämään, sosiaaliseen kokoonpanoon ja jopa kulttuuriin. Avoimuus on taattava ja näin tekoälyn haitallinen käyttö estettävä.
Miksi meidän pitäisi käyttää tekoälyä eettisesti?
Kansallisesta turvallisuudesta tietyn sovelluksen käyttöön ja politiikasta lääketieteeseen, tekoälyn eettistä käyttöä on arvioitava puolueettomasti. Sen haitallinen käyttö ei ainoastaan aiheuttaisi tai lisäisi uhkia yhteiskuntaamme, vaan myös syventäisi sen kielteisiä seurauksia.
Koska tekoäly muuttaa maailmaamme ja kulttuuriamme, on kehitettävä sen kanssa rinnakkain vastuullisuuden ja oikeanlaisen käytön kulttuuri. Toisin kuin monet ihmiset ajattelevat, tämä ei tarkoita vain kyberturvallisuustoimenpiteiden oppimista ja soveltamista.
Itse asiassa tällaisen vastuullisen kulttuurin edistäminen on vasta ensimmäinen askel. On välttämätöntä, että hallitukset ja yritykset ryhtyvät toimiin tekoälyn eettisen hallinnan edistämiseksi. Moraalinen pohdiskelu on todellakin jo alkanut, ja tässä suhteessa on edistytty, kuten Derecho Globalissa todetaan.
Tällä hetkellä robotteja hallitsevat ihmiset, toistaiseksi kaiken tekoälyn takana on ihmisäly. Katsotaan, mihin suuntaan tässä aiheessa liikumme.
Kaikki lainatut lähteet tarkistettiin perusteellisesti tiimimme toimesta varmistaaksemme niiden laadun, luotettavuuden, ajantasaisuuden ja pätevyyden. Tämän artikkelin bibliografia katsottiin luotettavaksi ja akateemisesti tai tieteellisesti tarkaksi.
- Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., Dafoe, A., et al. (2018). The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. https://doi.org/10.17863/CAM.22520
- Cortina Orts, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, 379-394. Ministerio de Justicia. https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394
- García Pastor, E. (2022). Definiendo una inteligencia artificial más ética. Consejo Superior de Investigaciones Científicas. https://www.csic.es/es/actualidad-del-csic/definiendo-una-inteligencia-artificial-mas-etica
- González Arencibia, M., & Martínez Cardero, D. (2020). Dilemas éticos en el escenario de la inteligencia artificial. Economía y Sociedad, 25(57), 93-109. https://dx.doi.org/10.15359/eys.25-57.5
- Fernández Fernández, J. L. (2021). Hacia el Humanismo Digital desde un denominador común para la Cíber Ética y la Ética de la Inteligencia Artificial. Disputatio. Philosophical Research Bulletin, 10(17), 107-130. https://dialnet.unirioja.es/servlet/articulo?codigo=8018155
- Porcelli, A. (2020). La inteligencia artificial y la robótica: sus dilemas sociales, éticos y jurídicos. Derecho global. Estudios sobre derecho y justicia, 6(16), 49-105. Epub 27 de enero de 2021.https://doi.org/10.32870/dgedj.v6i16.286
- Recomendación sobre la ética de la inteligencia artificial. (2021). Unesco.org. Recuperado 11 de abril de 2023. https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
- Terrones Rodríguez, A. L. (2018). Inteligencia artificial y ética de la responsabilidad. Cuestiones de Filosofía, 4(22). https://www.researchgate.net/publication/326907301_Inteligencia_artificial_y_etica_de_la_responsabilidad
Tämä teksti on tarkoitettu vain tiedoksi eikä se korvaa ammattilaisen konsultaatiota. Jos sinulla on kysyttävää, konsultoi asiantuntijaasi.