Deepfakes, uusi digitaalisen manipuloinnin muoto

On helpompi uskoa näkemääsi kuin sitä, mitä sinulle kerrotaan. Tästä syystä "deepfakes" pystyy hyödyntämään hyväuskoisuuttasi ja viattomuuttasi.
Deepfakes, uusi digitaalisen manipuloinnin muoto
Valeria Sabater

Kirjoittanut ja tarkastanut psykologi Valeria Sabater.

Viimeisin päivitys: 21 joulukuuta, 2022

Se näyttää noituudelta, mutta sitä se ei ole. Se on puhdasta tulevaisuuden tekniikkaa, tekoälyä, jonka voisi sisällyttää Arthur C. Clarken kirjoihin. Deepfakes ovat videoita, joita muutetaan digitaalisesti ja joiden avulla voidaan muuttaa yhden henkilön kasvot toiseksi. Tulos on niin täydellinen, että voit saada kenet tahansa sanomaan tai tekemään mitä tahansa, mitä he eivät ole koskaan sanoneet tai tehneet.

Useimmat käyttävät tätä resurssia vitsien tekemiseen ystävien ja perheen kesken. Loppujen lopuksi, kuka ei olisi laittanut kasvojaan sellaisten julkkisten tilalle kuin Lady Gaga, Leonardo DiCaprio, Kapteeni Amerikka ja Scarlett Johansson jne. Sillä tavalla, että yhtäkkiä huomaat tanssivasi musiikkivideossa tai näyttelemässä katkelmaa kuuluisasta elokuvasta.

Tätä tekniikkaa voidaan kuitenkin käyttää sekä vaarattomiin että rikollisiin tarkoituksiin. Esimerkki jälkimmäisestä on Raffaela Spone, 50-vuotias nainen, joka asuu Pennsylvaniassa, Yhdysvalloissa. Tämä kotiäiti käynnisti mustamaalauskampanjan tyttärensä kolmea cheerleader-tiimin jäsentä vastaan. Hän loi väärennettyjä kuvia tytöistä ja jakoi niitä.

Spone pidätettiin ja häntä syytettiin alaikäisten verkkokiusaamisesta. Koulu ja sosiaaliset verkostot levittivät hänen manipuloimiaan valokuvia. Poliisi oli kuitenkin tietoinen siitä, että ne on luotu tekoälytekniikalla.

Toinen esimerkki on YouTubessa levinnyt Obama-video, jossa hän sanoi Donald Trumpin olevan idiootti. Se synnytti suuren mediakiistan. Video ei ollut todellinen, vaan se oli Washingtonin yliopiston kokeilu, ja se osoitti, mitä manipulointi videoiden kautta tekoälyä käyttäen pystyy tuottamaan.

tyttö, jolla on binäärilukuja, jotka symboloivat syväväärennöksiä

Deepfakes ja kriittisen ajattelun merkitys

Deepfakes on muodissa. Yhden henkilön kasvojen asettaminen toisen ihmisen kehon päälle sanomaan tai tekemään jotain on todellakin nerokasta. Urbaanin legendan mukaan, jos sanot sanan deepfake kolme kertaa, ilmestyy Tom Cruise.

Victoria -yliopisto Kanadassa, Nottingham Trent -yliopisto Iso-Britanniassa ja LUISS Guido Carli -yliopisto Italiassa tekivät yhdessä tutkimuksen, jonka mukaan valokuvien manipulointia on tehty jo 1800-luvulta lähtien.

Siitä huolimatta deepfakes -väärennösten saapuminen on ollut käännekohta tässä ilmiössä, koska niitä käytetään usein rikollisiin tarkoituksiin, kuten pornografiaan, väärennettyihin uutisiin ja talouspetoksiin. Itse asiassa ongelmasta on tullut niin vakava, että uusia lakeja täytyy asettaa lähitulevaisuudessa.

Tällä digitaalikaudella petos, joko väärien uutisten tai kuvien kautta, on jo jopa normaalia. Sen sosiaalinen vaikutus on valtava. Siksi meidän on oltava valmiita havaitsemaan nämä manipuloivat laitteet.

Kun kuvalla on enemmän valtaa kuin sanoilla (ja totuudella)

On helpompi uskoa näkemääsi kuin sitä, mitä sinulle kerrotaan. Deepfakes muuttaa totuuden manipuloimalla visuaalisia asiakirjoja. Yksi esimerkki tapahtui Venetsiassa pandemian aikana. Siellä julkaistiin kuvia mustista joutsenista, jotka liikkuvat rauhallisesti kanavien läpi.

Näimme myös oudonmuotoisia kaloja tulvivilla kaduilla. Mikään niistä ei kuitenkaan ollut totta. Joutsenet olivat tekoälyn tuote. Väärän tiedon maailmassa deepfakes on suuri liittolainen.

Pornografista sisältöä ja deepfakes

Deepfake -tekniikkaa käytetään usein keinona häiritä ja kostaa. Mikä voisi olla parempaa kuin pornografisten videoiden luominen tällaiselle käytökselle? Valitaan yksinkertaisesti kuva ja siihen asetetaan haluamansa kasvot.

Sitten tulee seuraava vaihe, kuvan tai videon jakaminen. Deepfake -tekniikalla luotuja pornografisia videoita käytetään jopa koulu- ja työympäristöissä. Se on erittäin tehokas häirinnän muoto.

Todellisuuden hakkerointi

Deepfakes ilmestyi vuonna 2007, vähän ennen kuin väärennetyt uutiset ilmestyivät. Tällä hetkellä kaikki nämä trendit hakkeroivat todellisuutta ja muokkaavat sitä. Niitä käytetään mustamaalauskampanjoissa julkisia henkilöitä kohtaan. Lisäksi Crime Science Journal -julkaisun mukaan näihin rikollisiin tekoihin liittyy valtavia määriä rahaa vuosittain.

On arvioitu, että Internetissä voi tällä hetkellä liikkua yli 50 000 deepfake -väärennöstä. Huolestuttavaa on, että uskomme monia niistä.

nainen katsomassa deepfakes

Mitä voimme tehdä?

Jotkin maat, kuten Kiina, ovat kieltäneet tämäntyyppisen tekoälyn käytön. Facebook on luonut yli kymmenen miljoonan dollarin rahaston, jonka tarkoituksena on luoda työkaluja väestön suojelemiseksi niiden väärinkäytöltä. Esimerkiksi Microsoft ehdottaa, että käytämme sen Video Authenticator -palvelua selvittääksemme, onko videota tai kuvaa manipuloitu.

Haluamme vielä mainita kaksi viimeistä kommenttia tästä aiheesta. Ensinnäkin, sinun ei pitäisi koskaan turvautua tällaiseen tekniikkaan häirinnän tai koston vuoksi. Toiseksi sinun on kehitettävä kriittisen ajattelun taitoa, jolla voit lähestyä tällaisia viestejä. Koska maailmassa, jossa todellisuutta manipuloidaan yhä enemmän, vain varovaisuussuodatin voi suojella sinua…


Kaikki lainatut lähteet tarkistettiin perusteellisesti tiimimme toimesta varmistaaksemme niiden laadun, luotettavuuden, ajantasaisuuden ja pätevyyden. Tämän artikkelin bibliografia katsottiin luotettavaksi ja akateemisesti tai tieteellisesti tarkaksi.


  • Nguyen, Thanh & Nguyen, Cuong M. & Nguyen, Tien & Nguyen, Duc & Nahavandi, Saeid. (2019). Deep Learning for Deepfakes Creation and Detection: A Survey.
  • Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). “Deepfakes: Trick or treat?”. Business Horizons63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006
  • Roose, Kevin (4 March 2018). “Here Come the Fake Videos, Too”. The New York Times. ISSN 0362-4331

Tämä teksti on tarkoitettu vain tiedoksi eikä se korvaa ammattilaisen konsultaatiota. Jos sinulla on kysyttävää, konsultoi asiantuntijaasi.