You are currently viewing Jatkuva eettinen arviointi

Jatkuva eettinen arviointi

Eettisen ohjeistuksen tilanne

Sosiaali- ja terveyspalvelujen suunnittelu ja järjestäminen etenee huimaa vauhtia kohti digitaalisten palvelujen käyttöönottoa. Kehitykseen liittyvä eettinen pohdinta kulkee samaan aikaan pahasti perässä. Palveluiden kehittäjiltä ja toteuttajilta puuttuu keskeinen työkalu, eettinen ohjeistus.

Esimerkiksi sosiaali- ja terveysalan eettinen neuvottelukunta Etene ei ole toistaiseksi luonut digitaalisuuden ja tekoälyn tuomille haasteille omaa teemaa. Suomen Sairaanhoitajaliiton Sähköisten palvelujen strategiassa (2015) eettisyys sähköisissä palveluissa on huomioitu yhtenä teemana, mutta pääosin sosiaali- ja terveysalan ammattikuntien eettiset ohjeet eivät vielä ota kantaa digitalisaatioon.

Valtioneuvoston julkaisussa Tekoäly virantoimituksessa – eettiset kysymykset ja yhteiskunnallinen hyväksyttävyys on luotu toimintamallia eettisten kysymysten pohdintaan. Eettisen toimintamallin lähtökohtana on ihmisen hyvän elämän näkökulma ja ohjaavina normeina oikeellisuuden vaatimus sekä kansalaisten tuen ja turvallisuuden varmistaminen siten, että yksilön tarpeet ohjaavat säädöksiä ja ylipäätään kaikkea kehittämistyötä.

EU:n komission nimittämä tekoälyn asiantuntijaryhmä julkaisi eettisen ohjeensa Ethics Guidelines for Trustworthy AI huhtikuun alussa 2019. Raportissa luodaan tekoälyetiikan jäsennys. Sen mukaan luotettava tekoäly on eettistä, noudattaa lainsäädäntöä ja on teknisesti vankkaa.

Luotettavalle tekoälylle annetaan asiakirjassa seitsemän ehtoa:

  1. Ihmisen toimijuus ja ihmisen suorittama valvonta. Tekoälyjärjestelmien tulisi toimia tasa-arvoisen yhteiskunnan mahdollistajina tukemalla ihmisen toimijuutta ja edistämällä perusoikeuksia, eikä niillä saisi vähentää, rajoittaa tai ohjata väärin ihmisen itsenäistä päätäntävaltaa.
  2. Vakaus ja turvallisuus: Luotettava tekoäly edellyttää, että algoritmit ovat turvallisia, luotettavia ja riittävän vakaita virheellisyyksien tai epäjohdonmukaisuuksien varalta kaikissa tekoälyjärjestelmän elinkaaren vaiheissa.
  3. Yksityisyyden suoja ja datan hallinta: Kansalaisilla on oltava täydet mahdollisuudet valvoa omia tietojaan, eikä tällaisia tietoja saa käyttää heitä vahingoittavalla tai syrjivällä tavalla.
  4. Läpinäkyvyys: Tekoälyjärjestelmien jäljitettävyys on varmistettava.
  5. Monimuotoisuus, syrjimättömyys ja oikeudenmukaisuus: Tekoälyjärjestelmissä on otettava huomioon kaikki inhimilliset kyvyt, taidot ja vaatimukset ja varmistettava esteettömyys.
  6. Yhteiskunnallinen ja ekologinen hyvinvointi: Tekoälyjärjestelmien on edistettävä myönteistä yhteiskunnallista muutosta sekä kestävyyttä ja ekologista vastuuta.
  7. Vastuuvelvollisuus: Käyttöön tulee ottaa mekanismeja, joilla varmistetaan tekoälyjärjestelmiin ja niiden tuloksiin liittyvä vastuu ja vastuuvelvollisuus.

Raportissa esitellään myös arviointikysymykset, joilla organisaatiot voivat evaluoida vaatimusten toteutumista. Työryhmä kutsuu eurooppalaisia tekoälyn soveltajia kokeilemaan kysymyspatteria käytännössä ja antamaan palautetta sen toimivuudesta. EU on luomassa eurooppalaista tekoälyallianssia julkishallinnolle, yrityksille ja kolmannen sektorin toimijoille. Samalla EU korostaa, että teknologia, data ja algoritmit eivät tunne kansallisia rajoja. Se haluaa ulottaa tekoälyä koskevan keskustelun kansainväliselle tasolle tavoitteenaan kansainvälinen yksimielisyys ihmiskeskeisestä tekoälystä.

Ihmiskeskeinen tekoäly

Komission käyttämä ihmiskeskeisen tekoälyn käsite on tärkeä. Tekoälyn eettisistä vaikutuksista puhuttaessa usein muistutetaan aivan oikein, että ihmiset ovat ihmisiä ja koneet koneita. Epäeettiset johtopäätökset syntyvät ennen muuta ihmisten valinnoista. Siksi tulisi keskittyä niistä johtuvien ongelmien ratkaisemiseen.

Algoritmista on tullut lyhyessä ajassa maagiselta kuulostava sana, jonka sanotaan milloin vakoilevan ja milloin uhkaavan ihmisiä. Lopulta se on vain yksityiskohtainen ohje jonkin asian tekemiseen.

Tieto ja koulutus auttavat parhaiten ymmärtämään, missä määrin on mielekästä ajatella, että yksityiskohtaiset ohjeet jonkin asian ratkaisemiseksi uhkaavat koko yhteiskuntaa. Jos uhkatekijöitä mietitään, neperustuvat ahneuteen, vallanhaluun tai alistamiseen, mutta algoritmit ovat vain välineen asemassa.

Yhteiskuntaa uusi teknologia kuitenkin muuttaa, ja siksi voi ilmetä ongelmia ja kysymyksiä, joita ei ymmärrä, joihin ei osaa antaa vastauksia, jotka tuntuvat aiheuttavan haittaa tai jotka pelottavat.

Yhtä hyvin kansalaiskeskustelussa kuin ammattilaisten tasolla tulisi rohkaista asennetta, jossa tarkkaillaan ympäristöä avoimesti. Jos ilmenee outoa tai epäilyttävää, ei kannata sulkea silmiä ja suuta. Yksinkertaiset huomiot ja tyhmät kysymykset voivat olla merkittäviä. Ne voivat auttaa tekemään parempia päätöksiä ja auttaa asiantuntijoita näkemään, miten monin tavoin asioita voidaan hahmottaa. On mielekkäämpää antaa tuki muutokselle kuin harata sitä vastaan. Ennen muuta kannattaa aina kiinnittää huomio ihmisiin ja heidän motiiveihinsa, sillä koneet ovat koneita.

Yleispätevien eettisten sääntöjen rinnalle tarvitaan sektorikohtaisia sääntöjä ja ohjeita. Yleisillä ohjeistuksilla ei voida korvata kontekstisidonnaista eettistä arviointia. Ensinnä lainsäädäntö on suurelta osalta sektorikohtaista eikä lainmukaisuutta ja etiikkaa voida koskaan erottaa täysin toisistaan. Toiseksi, mikäli tavoitteena olisi luoda kaikki huomioon ottava yhdenmukainen, kaikkeen tekoälyyn sovellettava ohjeistus, saataisiin aikaan sääntelyhirviö. Toimialakohtaisilla eettisillä ohjeilla voidaan luoda käytäntöjä, jotka ohjaavat toimialalle tyypillisten sovellusten eettistä arviointia ja riskienhallintaa. Tämä koskee luonnollisesti myös suurta sosiaali- ja terveysalaa ja sen lukuisia erityisaloja.

Miksi eettistä arviointia tarvitaan?

Sosiaali- ja terveyspalvelujen ytimessä on elämän kunnioitus, kuten Antiikin Kreikasta periytyvässä Hippokrateen valassa, varhaisimmassa tunnetussa lääkärin eettisessä ohjeessa. Enemmän kuin absoluuttisesti päätetty oikea tai väärä, eettinen osaaminen perustuu jatkuvaan tilannekohtaiseen arviointiin.

Tekoälysovelluksilla ei ole ihmiselle ominaista tietoisuutta. Tekoälyetiikan keskeisiä ongelmia onkin, jos läpinäkyvyys, ihmisen valvonta ja yleiset eettiset periaatteet sen toiminnasta puuttuvat. Ihmiset kirjoittavat tekoälynkin algoritmit, mutta nykyaikaiset koneet käsittelevät tietomassoja niin nopeasti ja tehokkaasti, että eettinen harkinta ja ratkaisujen arviointi jää aina ihmisille.

Eettistä arviointia ja harkintaa tarvitaan yleensä digitaaliseen ja erityisesti tekoälyteknologiaan perustuvien palveluiden suunnittelussa ja käyttöönotossa. EU:n komission seitsemän ehdon samanaikaisen voimassaolon tarkistaminen edellyttää yleensä monialaista yhteiskehittämistä, jossa tekoälyasiantuntijoiden lisäksi ainakin alan sisältöasiantuntijoiden ja usein myös etiikan asiantuntijoiden mukanaoloa. Myös päätöksenteosta vastaavien olisi syytä seurata prosessia riittävän läheltä.

Tekoälyetiikan kaksi päälinjaa ovat, mitä tekoälyllä tavoitellaan ja miten toteutukset ovat vastuullisia ja turvallisia. Niistä ensimmäiseen liittyviä kysymyksiä pohdittaessa tarvitaan välineiksi ennen muuta yleistä etiikkaa, ihmisoikeuksia ja arvoja. Jälkimmäisessä joudutaan sukeltamaan myös sovelluksiin ja niiden kunkin kontekstiin yksityiskohtaisesti.

Etiikan, samalla myös reilun ja oikeamielisen kohtelun korostuminen kaikessa toiminnassa perustuu arvovalintaan. Arvoja voidaan valita ja arvoja voidaan opettaa. Yhteisön on syytä pitää kiinni valitsemistaan arvoista.

Valitettavasti usein on nähtävissä kahdenlainen arvojärjestelmä, jossa esimerkiksi organisaation strategiaan kirjatut arvot ovat kauniimmat, pehmeämmät ja toista huomioon ottavammat kuin ne, joita oikeasti noudatetaan. Jälkimmäisiä voivat olla kovat bisnesarvot, joilla haetaan tehokkuutta ja tuottavuutta. Kun nämä arvot ja normit ajautuvat vastakkain, syntyy väistämättä eettinen ongelma.

Eettisyys läpileikkaavana näkökulmana SotePeda 24/7 -hankkeessa

SotePeda 24/7 -hankkeen työpaketin ”Tulevaisuuden työ ja eettinen osaaminen” (TP6) tavoitteena on uudistaa etiikan opetusta ja oppimista luomalla monialainen eettisen toiminnan oppimiskokonaisuus ja sisältöjä, jotka vastaavat tulevaisuuden työelämän uusiin osaamisvaatimuksiin. Näin ollen uudistunut eettinen osaaminen on hankkeen myötä luonnollinen osa opetus- ja toteutussuunnitelmaa.

Mutta korkeakoulujen opettajien yhtenäinen eettinen osaaminen ei yksin riitä. Eettinen näkökulma tulee saattaa läpileikkaavaksi ymmärrykseksi koko sote-kentässä. Siksi hankkeessa tehty verkostotyö ja alueellisten eettisten foorumien työ on merkityksellistä.

Kansallisella tasolla eettisen toimintamallin käyttöönotto verkostoyhteistyön keinoin on tärkeä osa koko tulevaisuuden sote-kehittämistä. Samoin kansalliset ja alueelliset kehittäjäkumppanuudet ja eettiset foorumit vahvistavat ennakointitiedon ja työelämädialogin parempaa hyödyntämistä niin koulutusten jatkuvassa kehittämisessä kuin kansallisten ja alueellisten sote-palelujen kehittämisessä, järjestämisessä ja tuottamisessa. Näin etiikka nousee toisaalta keskiöön, toisaalta se sulautuu yhteisiin kohtaamisiin ja toimintoihin.

Laajapohjainen eettinen osaaminen perustuu jatkuvaan oikean ja väärän arviointiin. Sellainen tapahtuu parhaiten vuorovaikutuksessa. Siksi SotePeda 24/7 -hankkeessa rakennetaan joukolla yhteistä pohjaa eettisen osaamisen kuvaamiseksi ja yhä eettisemmän toiminnan tukemiseksi.

Lähteet:

Kirjoittajat:

Mikko Malkavaara, Diakonia-ammattikorkeakoulu
Olli Vesterinen, Diakonia-ammattikorkeakoulu
Katariina Välikangas, Hämeen ammattikorkeakoulu