SELKO AI


XAI tai SELKO AI, eli selitettävissä oleva tekoäly

XAI lyhenne tulee sanoista eXplainable Artificial Intelligence, siis “selitettävissä tai ymmärrettävissä oleva tekoäly.” Tässä suomennamme sen lyhyesti SELKO AI. Sen puitteissa pyritään kehittämään koneoppimistekniikoita, joiden avulla voidaan luoda selitettävissä olevin tavoin toimivia koneoppivia malleja.

Uusia teknologioita tutkiva USA:n DARPA määrittelee SELKO AI:n seuraavasti:

“The goal of Explainable Artificial Intelligence (XAI) is to create a suite of
new or modified machine learning techniques that produce explainable models that, when combined with effective explanation techniques, enable end users to understand, appropriately trust, and effectively manage the emerging generation of Artificial Intelligence (AI) systems.

The U.S.A DARPA XAI MISSION (10/2016-)

Miksi selko AI?

Koneoppivien järjestelmien nopea kehitys antaa olettaa, että jo lähitulevaisuudessa osaamme rakentaa autonomisia järjestelmiä, jotka kommunikoivat keskenään ja ympärillään toimivien ihmisten kanssa ja oppivat tuosta kommunikaatiosta tehokkaammin kuin me ihmiset. Ne oppivat rajaamaan valintatilanteita, kuvaamaan mahdollisten asiankulkujen joukkoa ja mahdollisia strategisia valintoja ja suosittelemaan toimintaa koordinoivia ja tukevia palveluketjuja tai kielipelistrategioita.

Tässä rajatussa mielessä ne siis ovat manipulatiivisia teknologioita. Ne tekevät päätelmiä mahdollisten maailmoiden joukosta ja edessä olevista valintatilanteista ja suosittelevat toimintastrategioita. Jos tämä skenaario toteutuisi laajasti ja autonomiset koneet olisivat laajasti käyttöönotettavissa olevaa yleiskäyttöistä teknologiaa, avaisi se monilla palvelualoilla tien nopealle tuottavuuden kasvulle ja suurituottoisille teknologiainvestoinneille.

On kuitenkin odotettavissa, että joillain toimialoilla — esimerkiksi hyvinvointipalveluissa — siirtymä tuohon taloudellisen arvon tuotannon vaiheeseen tapahtuu hitaasti. Todennäköistä on, että kansallisvaltioiden demokraattisesti johdetut lainsäädäntöelimet tulevat sitä aktiivisesti hidastamaan. Taustalla tässä on se tosiasia, että koneoppivat mallit ovat eräänlaisia mustia laatikoita. Internet -mittakaavan tuotantojärjestelmien sisältövirrassa toimivia autonomisia koneita käyttävillä organisaatioilla ei ole käytännössä kykyä yksilöidä ja pukea noiden koneiden tekemien ennusteiden perusteita ihmismielelle ymmärrettävään narratiiviin. Tästä johtuen asiassa siis törmätään ennen pitkää ihmisten toimijuutta omassa asiassaan suojaavaan sääntelyyn ja eettisiin periaatteisiin.

Suomessa valmistellaan tekoälyn käyttöä säätelevää yleislainsäädäntöä ja monissa virastoissa ollaan jo muodostettu ensimmäisiä versioita tekoälyn ja automaattisen päätöksenteon hyvistä käytännöistä. Toisaalta myös erittäin huonoja esimerkkejä löytyy, sellaisia joissa yksi tai useampia alla olevista periaatteista jää huomioimatta.

Tekoälyn käytön eettiset periaatteet

  1. Läpinäkyvyys (transparency) 
    • Kuinka taataan / voidaanko taata life-long-learner tekoälyjärjestelmien toiminnan SEKÄ kehittämisen läpinäkyvyys, algoritminen läpinäkyvyys ja julkisen toimijan kyseessä ollen, sen julkisuus?
  2. Vastuullisuus (accountability/responsibility) 
    • Kuinka varmistetaan ihmisten ja tekoälyjärjestelmien kyky vastata tekemistään ennusteista ja päättelyistä. Kuinka luomme kyvyn tunnistaa tehtyjä virheitä ja analysoida niiden odottamattomia seurauksia. 
  3. Reiluus (fairness/justice/equality) 
    • Kuinka varmistetaan, että emme tällä teknologialla lisää yhteiskunnassa vallitsevaa teknologista asymmetriaa ja rakenna uus-feodalistista teknologiayhteiskuntaa? Kuinka varmistamme järjestelmien kyvyn palvella eri osapuolia tasapuolisesti? Kuinka varmistetaan, ettei jatkuvan oppimisen järjestelmiin synny vääränlaisia yhteiskuntaa jakavia ja eriarvoisuutta tuottavia vinoumia?
  4. Selitettävyys (explainability/accountability) 
    • Kuinka varmistetaan autonomisten järjestelmän osien osalta kyky selittää ja oikeuttaa päätökset järjestelmää käyttävälle
    • GDPR 13.2.f, 14.2.g ja 15.1.h “Oikeus selitykseen” / “Right to explanation” 
  5. Toimijuus / (actionable, human agency, citizen agency)
    • Kuinka varmistetaan, että tekoäly tukee SEKÄ palveluista virkavastuussa olevien ETTÄ suomalaisen hallintovallan käytön kohteena olevien toimijuutta, eikä lisää hallinnon läpinäkymättömyyttä
    • GDPR 22.1  “data subjects ‘have the right not to be subject to a decision based solely* on automated processing, including profiling, which produces legal effects concerning him or her or similarly significantly affects him or her’”
  6. Jäljitettävyys (traceability/explainability)
    • Kuinka varmistetaan järjestelmän käyttäjien kyky jäljittää ja ymmärtää järjestelmän päätöksiä sekä niiden lähtökohtia
  7. Oikeus yksityisyyden suojaan ja liikesalaisuuksiin  / Right to secrecy
    • Kuinka varmistetaan etteivät järjestelmän mallit säilytä koulutusdatassa olleita yksilöiviä tietoja
  • *kts merkityksestä: Meaningful information and the right to explanation Andrew D. Selbst* and Julia Powles**  International Data Privacy Law, 2017, Vol. 7, No. 4

Fibeliuksen selko AI

Fibelius Konemieli Oy:n 1. sukupolven Selko AI ratkaisu on hybridi. Se perustuu hybridiin sekä koneoppimista että organisaation policy kerrosta hyödyntävän sääntöpohjaisen asiankäsittely- ja kommunikaatiojärjestelmän yhdistelmään. Järjestelmän periaatteet on kehitetty ja se on aktiivisessa käytössä suomalaisessa valtionhallintokontekstissa. Sen tavoitteena on turvata asiankäsittelyn lainmukaisuus, virkavastuun toteutuminen ja kansalaisen oikeudet hallintomenettelyssä. Kyseessä on toimintatapa, ei niinkään teknologiaratkaisu tai tuote. Se toteuttaa kaikki yllä luetellut SELKO AI periaatteet ja eettisen tekoälyn periaatteet ja se voidaan ottaa heti käyttöön edellyttäen, että organisaatiossa on olemassa GDPR vaatimusten ja tietosuoja-asetuksen vaatimusten mukaan organisoitu rakenne. Kuvaamme tarvittavan rakenteen Selko AI esitteessämme, joka valmistuu kesäkuussa 2021. Voit ennakko-tilata sen alla olevalla lomakkeella.