Pemalsuan dalam: Perbedaan antara revisi
Tidak ada ringkasan suntingan |
Tidak ada ringkasan suntingan Tag: Suntingan perangkat seluler Suntingan peramban seluler Suntingan seluler lanjutan |
||
(29 revisi perantara oleh 12 pengguna tidak ditampilkan) | |||
Baris 1: | Baris 1: | ||
{{Pindah ke|Deepfake}} |
|||
⚫ | ''' |
||
[[Berkas:Dictators - Kim Jong-Un by RepresentUs.webm|jmpl|Contoh penerapan teknologi pemalsuan dalam: Kim Jong-un berpidato mengenai keruntuhan demokrasi, yang mana rekaman tersebut tidak benar-benar ada.<ref>{{Cite web|last=Khan|first=Jeremy|date=3 Oktober 2020|title=These deepfake videos of Putin and Kim have gone viral|url=https://fortune.com/2020/10/02/deepfakes-putin-kim-jong-un-democracy-disinformation/|website=Fortune|access-date=19 Februari 2021}}</ref>]] |
|||
⚫ | '''Pemalsuan dalam''' ({{lang-en|deepfake}}) ([[Portmanteau|lakuran]] dari "[[Pemelajaran dalam|''deep learning'']]" dan "''fake''"<ref name="FoxNews2018">{{Cite news|url=http://www.foxnews.com/tech/2018/02/16/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-rise.html|title=Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise|last=Brandon|first=John|date=2018-02-16|work=Fox News|access-date=2018-02-20|language=en-US}}</ref>)) adalah teknik untuk [[sintesis citra manusia]] menggunakan [[kecerdasan buatan]]. Pemalsuan dalam digunakan untuk menggabungkan dan [[Superimposisi|menempatkan]] gambar dan video yang ada ke sumber gambar atau video menggunakan teknik [[pemelajaran mesin]] yang dikenal sebagai [[jaringan permusuhan generatif]].<ref name="Schwartz">{{Cite news|last=Schwartz|first=Oscar|title=You thought fake news was bad? Deep fakes are where truth goes to die|url=https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth|access-date=14 November 2018|work=The Guardian|date=12 November 2018|language=en}}</ref> |
||
Karena kemampuan ini, |
Karena kemampuan ini, pemalsuan dalam telah digunakan untuk membuat [[Rekaman sex selebriti|video porno selebriti]], [[pornografi balas dendam]], [[berita palsu]], [[berita bohong]], perundungan, dan [[Skandal akuntansi|penipuan finansial]].<ref name="HighSnobiety2018">{{Cite news|url=https://www.highsnobiety.com/p/what-are-deepfakes-ai-porn/|title=What Are Deepfakes & Why the Future of Porn is Terrifying|date=2018-02-20|work=Highsnobiety|access-date=2018-02-20|language=en-US}}</ref><ref>{{Cite web|url=https://theoutline.com/post/3179/deepfake-videos-are-freaking-experts-out|title=Experts fear face swapping tech could start an international showdown|website=The Outline|language=en|access-date=2018-02-28}}</ref><ref>{{Cite news|url=https://www.nytimes.com/2018/03/04/technology/fake-videos-deepfakes.html|title=Here Come the Fake Videos, Too|last=Roose|first=Kevin|date=2018-03-04|work=The New York Times|access-date=2018-03-24|language=en-US|issn=0362-4331}}</ref> Ini telah memicu respons baik dari industri maupun pemerintah untuk mendeteksi dan membatasi penggunaannya.<ref>{{Cite web|last=Ghoshal|first=Abhimanyu|date=2018-02-07|title=Twitter, Pornhub and other platforms ban AI-generated celebrity porn|url=https://thenextweb.com/news/twitter-pornhub-and-other-platforms-ban-ai-generated-celebrity-porn|website=TNW {{!}} Insider|language=en|access-date=2022-05-26}}</ref><ref>{{Cite web|last=|first=|date=2019-06-28|title=H.R.3230 - 116th Congress (2019-2020): DEEP FAKES Accountability Act|url=http://www.congress.gov/|website=www.congress.gov|language=en|access-date=2022-05-26}}</ref> |
||
== Sejarah == |
== Sejarah == |
||
=== Penelitian akademis === |
=== Penelitian akademis === |
||
Penelitian akademis yang terkait dengan |
Penelitian akademis yang terkait dengan pemalsuan dalam terletak terutama di bidang [[penglihatan komputer]], subbidang ilmu komputer sering didasarkan pada kecerdasan buatan yang berfokus pada pemrosesan komputer dari gambar dan video digital. Proyek pertama yang cukup signifikan adalah program Video Rewrite, yang diterbitkan pada tahun 1997, yang memodifikasi rekaman video seseorang yang sedang berbicara untuk menggambarkan orang itu mengucapkan kata-kata yang terdapat dalam trek audio yang berbeda.<ref>{{Cite journal|last=Bregler|first=Christoph|last2=Covell|first2=Michele|last3=Slaney|first3=Malcolm|date=1997|title=Video Rewrite: Driving Visual Speech with Audio|url=https://doi.org/10.1145/258734.258880|journal=Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques|volume=24|pages=353–360}}</ref> |
||
Proyek akademik kontemporer telah berfokus pada pembuatan video yang lebih realistis dan membuat teknik lebih sederhana, lebih cepat, dan lebih mudah diakses. Program "Synthesizing Obama", yang diterbitkan pada 2017, memodifikasi rekaman video mantan presiden [[Barack Obama]] untuk menggambarkan dia mengucapkan kata-kata yang terkandung dalam trek audio terpisah. |
Proyek akademik kontemporer telah berfokus pada pembuatan video yang lebih realistis dan membuat teknik lebih sederhana, lebih cepat, dan lebih mudah diakses. Program "Synthesizing Obama", yang diterbitkan pada 2017, memodifikasi rekaman video mantan presiden [[Barack Obama]] untuk menggambarkan dia mengucapkan kata-kata yang terkandung dalam trek audio terpisah.<ref>{{Cite journal|last=Suwajanakorn|first=Supasorn|last2=Seitz|first2=Steven M.|last3=Kemelmacher-Shlizerman|first3=Ira|date=July 2017|title=Synthesizing Obama: Learning Lip Sync from Audio|url=http://doi.acm.org/10.1145/3072959.3073640|journal=ACM Trans. Graph.|volume=36.4|pages=95:1–95:13}}</ref> Proyek ini mendaftar sebagai kontribusi penelitian utama teknik fotorealistik untuk menyintesis bentuk mulut dari audio. Program Face2Face, yang diterbitkan pada tahun 2016, memodifikasi rekaman video wajah seseorang untuk menggambarkan mereka meniru ekspresi wajah orang lain secara waktu nyata.<ref>{{Cite journal|last=Thies|first=Justus|last2=Zollhöfer|first2=Michael|last3=Stamminger|first3=Marc|last4=Theobalt|first4=Christian|last5=Nießner|first5=Matthias|date=June 2016|title=Face2Face: Real-Time Face Capture and Reenactment of RGB Videos|url=http://ieeexplore.ieee.org/document/7780631/|journal=2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)|location=|publisher=IEEE|volume=|pages=2387–2395|doi=10.1109/CVPR.2016.262|isbn=9781467388511}}</ref> |
||
== Politik == |
== Politik == |
||
Pemalsuan dalam telah digunakan untuk merepresentasikan politikus terkenal di [[portal video]] atau ruang obrolan. Misalnya, wajah Presiden Argentina [[Mauricio Macri]] digantikan oleh wajah [[Adolf Hitler]], dan wajah [[Angela Merkel]] digantikan dengan wajah [[Donald Trump]].<ref name=":0">{{Cite web|url=https://www.aargauerzeitung.ch/leben/digital/wenn-merkel-ploetzlich-trumps-gesicht-traegt-die-gefaehrliche-manipulation-von-bildern-und-videos-132155720|title=Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos|date=2018-02-03|publisher=az Aargauer Zeitung|access-date=2019-07-08|archive-date=2019-04-13|archive-url=https://web.archive.org/web/20190413014251/https://www.aargauerzeitung.ch/leben/digital/wenn-merkel-ploetzlich-trumps-gesicht-traegt-die-gefaehrliche-manipulation-von-bildern-und-videos-132155720|dead-url=yes}}</ref><ref>{{Cite web|url=http://faktenfinder.tagesschau.de/hintergrund/deep-fakes-101.html|title=Deepfakes: Auf dem Weg in eine alternative Realität?|last=Patrick Gensing}}</ref> Pada bulan April 2018, [[Jordan Peele]] dan [[Jonah Peretti]] menciptakan pemalsuan dalam menggunakan wajah [[Barack Obama]] sebagai [[Iklan layanan masyarakat|pengumuman layanan masyarakat]] tentang bahaya pemalsuan dalam.<ref>{{Cite web|url=https://www.vox.com/2018/4/18/17252410/jordan-peele-obama-deepfake-buzzfeed|title=Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news|last=Romano|first=Aja|date=April 18, 2018|website=Vox|access-date=September 10, 2018}}</ref> Pada Januari 2019, afiliasi [[Fox Broadcasting Company|televisi Fox]], [[KCPQ]], menyiarkan pemalsuan dalam Trump selama [[Januari 2019 alamat Oval Office|pidato Oval Office-nya]], mengejek penampilan dan warna kulitnya.<ref>{{Cite web|url=https://www.washingtonpost.com/nation/2019/01/11/seattle-tv-station-aired-doctored-footage-trumps-oval-office-speech-employee-has-been-fired/|title=A Seattle TV station aired doctored footage of Trump’s Oval Office speech. The employee has been fired.|last=Swenson|first=Kyle|date=January 11, 2019|website=The Washington Post|language=en|access-date=January 11, 2019}}</ref> |
|||
Pada bulan Mei 2019, [[Ketua Dewan Perwakilan Rakyat Amerika Serikat|pembicara Dewan Perwakilan Rakyat Amerika Serikat]] [[Nancy Pelosi]] menjadi subjek dari dua [[video viral]], salah satunya memiliki kecepatan melambat hingga 75 persen,<ref>{{Cite web|url=https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media|title=Faked Pelosi videos, slowed to make her appear drunk, spread across social media|website=Washington Post|language=en|access-date=1 July 2019}}</ref> dan yang lainnya menyunting bagian-bagian pidatonya pada konferensi pers. |
Pada bulan Mei 2019, [[Ketua Dewan Perwakilan Rakyat Amerika Serikat|pembicara Dewan Perwakilan Rakyat Amerika Serikat]] [[Nancy Pelosi]] menjadi subjek dari dua [[video viral]], salah satunya memiliki kecepatan melambat hingga 75 persen,<ref>{{Cite web|url=https://www.washingtonpost.com/technology/2019/05/23/faked-pelosi-videos-slowed-make-her-appear-drunk-spread-across-social-media|title=Faked Pelosi videos, slowed to make her appear drunk, spread across social media|website=Washington Post|language=en|access-date=1 July 2019}}</ref> dan yang lainnya menyunting bagian-bagian pidatonya pada konferensi pers. Untuk segmen [[Fox News Channel|Fox News,]] ''[[Lou Dobbs Malam ini|Lou Dobbs Tonight]]'', yang keduanya dimaksudkan untuk membuat Pelosi tampak seolah-olah sedang mengutarakan pidatonya. Presiden [[Donald Trump]] membagikan video terakhir di Twitter, dengan judul video "''PELOSI STAMMERS THROUGH NEWS CONFERENCE''".<ref>{{Cite web|url=https://gizmodo.com/bullshit-viral-videos-of-nancy-pelosi-show-fake-content-1835000766|title=Bullshit Viral Videos of Nancy Pelosi Show Fake Content Doesn't Have to Be a Deepfake|last=Novak|first=Matt|website=Gizmodo|access-date=1 July 2019}}</ref> Video-video ini disebut sebagai pemalsuan dalam oleh banyak saluran berita utama, yang membuat pemalsuan dalam menjadi perhatian [[Komite Intelijen Rumah|Komite Intelijen Dalam Negeri]] Amerika Serikat. Namun, ketua komite tersebut, [[Adam Schiff]], mengklarifikasi dalam sebuah wawancara dengan [[CNN]] bahwa video yang melambat itu sebenarnya bukan suatu kesalahan besar, sebaliknya menyebutnya sebagai video "palsu murahan" dan menggambarkannya sebagai video yang "sangat mudah dibuat, sangat sederhana untuk dibuat, konten asli baru saja dirawat".<ref>{{Cite web|url=https://www.cnn.com/2019/06/04/politics/house-intelligence-committee-deepfakes-threats-hearing/index.html|title=Congress to investigate deepfakes as doctored Pelosi video causes stir|last=O'Sullivan|first=Donie|website=CNN|access-date=2 July 2019}}</ref> |
||
== Perangkat lunak |
== Perangkat lunak pemalsuan dalam == |
||
Perangkat lunak ini menggunakan AI-Framework [[ |
Perangkat lunak ini menggunakan AI-Framework [[TensorFlow]] dari [[Google]], yang antara lain sudah digunakan untuk program [[DeepDream]]. [[Selebritas|Pesohor]] adalah subjek utama dari video palsu tersebut, tetapi orang-orang lain juga muncul.<ref name=":2">{{Citation|last=Britta Bauchmüller|title="Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!|publisher=Berliner-Kurier.de|url=https://www.berliner-kurier.de/ratgeber/digital/-fake-app--mit-diesem-programm-kann-jeder-im-porno-landen---ob-er-will-oder-nicht--29578018}}</ref><ref>{{Citation|last=Eike Kühl|title=Künstliche Intelligenz: Auf Fake News folgt Fake Porn|publisher=Die Zeit|date=2018-01-26|issn=0044-2070|url=http://www.zeit.de/digital/internet/2018-01/kuenstliche-intelligenz-deepfakes-porno-face-swap}}</ref><ref>{{Citation|last=heise online|url=https://www.heise.de/newsticker/meldung/Deepfakes-Neuronale-Netzwerke-erschaffen-Fake-Porn-und-Hitler-Parodien-3951035.html|title=Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien}}</ref> Pada Agustus 2018, para peneliti di [[Universitas California, Berkeley|University of California, Berkeley]] menerbitkan sebuah makalah yang memperkenalkan aplikasi tarian palsu yang dapat menciptakan kesan kemampuan menari ahli menggunakan AI.<ref>{{Cite news|url=https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8|title=An AI program will soon be here to help your deepfake dancing – just don't call it deepfake|last=Farquhar|first=Peter|date=2018-08-27|work=Business Insider Australia|access-date=2018-08-27|language=en|archive-date=2019-04-10|archive-url=https://web.archive.org/web/20190410050633/https://www.businessinsider.com.au/artificial-intelligence-ai-deepfake-dancing-2018-8|dead-url=yes}}</ref><ref>{{Cite news|url=https://www.theverge.com/2018/8/26/17778792/deepfakes-video-dancing-ai-synthesis|title=Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted|work=The Verge|access-date=2018-08-27}}</ref> |
||
Ada juga alternatif sumber terbuka untuk program FakeApp asli, seperti DeepFaceLab,<ref>{{Cite web|url=https://github.com/iperov/DeepFaceLab|title=DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab|date=19 June 2019|publisher=}}</ref> FaceSwap (saat ini di-host di [[GitHub]])<ref>{{Cite web|url=https://github.com/|title=Build software better, together|website=GitHub}}</ref> dan myFakeApp (saat ini di-host di [[Bitbucket]]). |
Ada juga alternatif sumber terbuka untuk program FakeApp asli, seperti DeepFaceLab,<ref>{{Cite web|url=https://github.com/iperov/DeepFaceLab|title=DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab|date=19 June 2019|publisher=}}</ref> FaceSwap (saat ini di-host di [[GitHub]])<ref>{{Cite web|url=https://github.com/|title=Build software better, together|website=GitHub}}</ref> dan myFakeApp (saat ini di-host di [[Bitbucket]]).<ref>{{Cite web|url=https://bitbucket.org/radeksissues/myfakeapp/src|title=Bitbucket|website=bitbucket.org}}</ref><ref>{{Cite web|url=https://www.duo.uio.no/bitstream/handle/10852/66387/Master-s-thesis-Tormod-Dag-Fikse.pdf|title=Imagining Deceptive Deepfakes|last=Fiske|first=Tormod|website=www.duo.uio.no|format=PDF|access-date=2019-06-19}}</ref> |
||
== Rujukan == |
|||
<references/> |
|||
== Referensi == |
|||
[[Kategori:Grafika komputer]] |
[[Kategori:Grafika komputer]] |
||
[[Kategori:Aplikasi pengelihatan komputer]] |
[[Kategori:Aplikasi pengelihatan komputer]] |
||
[[Kategori: |
[[Kategori:Pemelajaran dalam]] |
||
[[Kategori:Pemalsuan dalam| ]] |
Revisi terkini sejak 22 September 2024 22.03
Pemalsuan dalam (bahasa Inggris: deepfake) (lakuran dari "deep learning" dan "fake"[2])) adalah teknik untuk sintesis citra manusia menggunakan kecerdasan buatan. Pemalsuan dalam digunakan untuk menggabungkan dan menempatkan gambar dan video yang ada ke sumber gambar atau video menggunakan teknik pemelajaran mesin yang dikenal sebagai jaringan permusuhan generatif.[3]
Karena kemampuan ini, pemalsuan dalam telah digunakan untuk membuat video porno selebriti, pornografi balas dendam, berita palsu, berita bohong, perundungan, dan penipuan finansial.[4][5][6] Ini telah memicu respons baik dari industri maupun pemerintah untuk mendeteksi dan membatasi penggunaannya.[7][8]
Sejarah
[sunting | sunting sumber]Penelitian akademis
[sunting | sunting sumber]Penelitian akademis yang terkait dengan pemalsuan dalam terletak terutama di bidang penglihatan komputer, subbidang ilmu komputer sering didasarkan pada kecerdasan buatan yang berfokus pada pemrosesan komputer dari gambar dan video digital. Proyek pertama yang cukup signifikan adalah program Video Rewrite, yang diterbitkan pada tahun 1997, yang memodifikasi rekaman video seseorang yang sedang berbicara untuk menggambarkan orang itu mengucapkan kata-kata yang terdapat dalam trek audio yang berbeda.[9]
Proyek akademik kontemporer telah berfokus pada pembuatan video yang lebih realistis dan membuat teknik lebih sederhana, lebih cepat, dan lebih mudah diakses. Program "Synthesizing Obama", yang diterbitkan pada 2017, memodifikasi rekaman video mantan presiden Barack Obama untuk menggambarkan dia mengucapkan kata-kata yang terkandung dalam trek audio terpisah.[10] Proyek ini mendaftar sebagai kontribusi penelitian utama teknik fotorealistik untuk menyintesis bentuk mulut dari audio. Program Face2Face, yang diterbitkan pada tahun 2016, memodifikasi rekaman video wajah seseorang untuk menggambarkan mereka meniru ekspresi wajah orang lain secara waktu nyata.[11]
Politik
[sunting | sunting sumber]Pemalsuan dalam telah digunakan untuk merepresentasikan politikus terkenal di portal video atau ruang obrolan. Misalnya, wajah Presiden Argentina Mauricio Macri digantikan oleh wajah Adolf Hitler, dan wajah Angela Merkel digantikan dengan wajah Donald Trump.[12][13] Pada bulan April 2018, Jordan Peele dan Jonah Peretti menciptakan pemalsuan dalam menggunakan wajah Barack Obama sebagai pengumuman layanan masyarakat tentang bahaya pemalsuan dalam.[14] Pada Januari 2019, afiliasi televisi Fox, KCPQ, menyiarkan pemalsuan dalam Trump selama pidato Oval Office-nya, mengejek penampilan dan warna kulitnya.[15]
Pada bulan Mei 2019, pembicara Dewan Perwakilan Rakyat Amerika Serikat Nancy Pelosi menjadi subjek dari dua video viral, salah satunya memiliki kecepatan melambat hingga 75 persen,[16] dan yang lainnya menyunting bagian-bagian pidatonya pada konferensi pers. Untuk segmen Fox News, Lou Dobbs Tonight, yang keduanya dimaksudkan untuk membuat Pelosi tampak seolah-olah sedang mengutarakan pidatonya. Presiden Donald Trump membagikan video terakhir di Twitter, dengan judul video "PELOSI STAMMERS THROUGH NEWS CONFERENCE".[17] Video-video ini disebut sebagai pemalsuan dalam oleh banyak saluran berita utama, yang membuat pemalsuan dalam menjadi perhatian Komite Intelijen Dalam Negeri Amerika Serikat. Namun, ketua komite tersebut, Adam Schiff, mengklarifikasi dalam sebuah wawancara dengan CNN bahwa video yang melambat itu sebenarnya bukan suatu kesalahan besar, sebaliknya menyebutnya sebagai video "palsu murahan" dan menggambarkannya sebagai video yang "sangat mudah dibuat, sangat sederhana untuk dibuat, konten asli baru saja dirawat".[18]
Perangkat lunak pemalsuan dalam
[sunting | sunting sumber]Perangkat lunak ini menggunakan AI-Framework TensorFlow dari Google, yang antara lain sudah digunakan untuk program DeepDream. Pesohor adalah subjek utama dari video palsu tersebut, tetapi orang-orang lain juga muncul.[19][20][21] Pada Agustus 2018, para peneliti di University of California, Berkeley menerbitkan sebuah makalah yang memperkenalkan aplikasi tarian palsu yang dapat menciptakan kesan kemampuan menari ahli menggunakan AI.[22][23]
Ada juga alternatif sumber terbuka untuk program FakeApp asli, seperti DeepFaceLab,[24] FaceSwap (saat ini di-host di GitHub)[25] dan myFakeApp (saat ini di-host di Bitbucket).[26][27]
Rujukan
[sunting | sunting sumber]- ^ Khan, Jeremy (3 Oktober 2020). "These deepfake videos of Putin and Kim have gone viral". Fortune. Diakses tanggal 19 Februari 2021.
- ^ Brandon, John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (dalam bahasa Inggris). Diakses tanggal 2018-02-20.
- ^ Schwartz, Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (dalam bahasa Inggris). Diakses tanggal 14 November 2018.
- ^ "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety (dalam bahasa Inggris). 2018-02-20. Diakses tanggal 2018-02-20.
- ^ "Experts fear face swapping tech could start an international showdown". The Outline (dalam bahasa Inggris). Diakses tanggal 2018-02-28.
- ^ Roose, Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (dalam bahasa Inggris). ISSN 0362-4331. Diakses tanggal 2018-03-24.
- ^ Ghoshal, Abhimanyu (2018-02-07). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". TNW | Insider (dalam bahasa Inggris). Diakses tanggal 2022-05-26.
- ^ "H.R.3230 - 116th Congress (2019-2020): DEEP FAKES Accountability Act". www.congress.gov (dalam bahasa Inggris). 2019-06-28. Diakses tanggal 2022-05-26.
- ^ Bregler, Christoph; Covell, Michele; Slaney, Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360.
- ^ Suwajanakorn, Supasorn; Seitz, Steven M.; Kemelmacher-Shlizerman, Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13.
- ^ Thies, Justus; Zollhöfer, Michael; Stamminger, Marc; Theobalt, Christian; Nießner, Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE: 2387–2395. doi:10.1109/CVPR.2016.262. ISBN 9781467388511.
- ^ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. Diarsipkan dari versi asli tanggal 2019-04-13. Diakses tanggal 2019-07-08.
- ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?".
- ^ Romano, Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. Diakses tanggal September 10, 2018.
- ^ Swenson, Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (dalam bahasa Inggris). Diakses tanggal January 11, 2019.
- ^ "Faked Pelosi videos, slowed to make her appear drunk, spread across social media". Washington Post (dalam bahasa Inggris). Diakses tanggal 1 July 2019.
- ^ Novak, Matt. "Bullshit Viral Videos of Nancy Pelosi Show Fake Content Doesn't Have to Be a Deepfake". Gizmodo. Diakses tanggal 1 July 2019.
- ^ O'Sullivan, Donie. "Congress to investigate deepfakes as doctored Pelosi video causes stir". CNN. Diakses tanggal 2 July 2019.
- ^ Britta Bauchmüller, "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!, Berliner-Kurier.de
- ^ Eike Kühl (2018-01-26), Künstliche Intelligenz: Auf Fake News folgt Fake Porn, Die Zeit, ISSN 0044-2070
- ^ heise online, Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien
- ^ Farquhar, Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (dalam bahasa Inggris). Diarsipkan dari versi asli tanggal 2019-04-10. Diakses tanggal 2018-08-27.
- ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. Diakses tanggal 2018-08-27.
- ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 June 2019.
- ^ "Build software better, together". GitHub.
- ^ "Bitbucket". bitbucket.org.
- ^ Fiske, Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. Diakses tanggal 2019-06-19.