„Ïalší vývojový stupeò dezinformácií.”
„Pojem doslova znamená hlboké klamstvá postavené na zneužití umelej inteligencie k podvodu. Ide o realistické foto alebo videomontáž, ktoré sú možné vïaka pokroku v strojovom uèení. Zjednodušene povedané, tvorce deepfakes zadá do príslušnej aplikácie obrázky osoby, ktorú chce „rozhovori“, aplikácia si zapamätá mimiku jej tváre a ïalšie typické prejavy vybraného èloveka, nauèí sa ich vierohodne spracova a prezentova. Autor falošného videa vïaka tomu môže necha napríklad predného politika hovori veci, ktoré v skutoènosti nikdy nevyslovil.” {Autor falošného videa vïaka tomu môže necha napríklad predného politika hovori veci, ktoré v skutoènosti nikdy nevyslovil.”}
Zdroj: iRozhlasVyšie popísaná technológia pôvodnì vznikla pre zachovanie spomienok preživších holokaust. Dôvodom bolo viac interakcie v rámci výuky a taktiež to, aby bola pre študentov táto téma atraktívnejšia.
Ïalším spôsobom využitia je napríklad synchronizácia hlasu a tváre behom dabingu.
Bohužia¾ sme o deep fakes získali v roku 2017 povedomie skôr v súvislosti s pornopriemyslom. V týchto typoch filmov sa zaèali objavova tváre známych celebrít, ktoré boli pomocou strojového uèenia „nasadené” na telá pornohercov. Umelej inteligencii k tomu staèí zhruba 500 fotografií. Na ich základe vytvorí 3D model, ktorý potom aplikuje miesto pôvodnéj tváre.
Tento fenomén samozrejme nezostal bez povšimnutia u rôznych nadšencov, ktorí ho postupne ladia k dokonalosti. Aktuálne už sa môžeme stretnú aj s inými typmi videí. Na youtube môžeme nájs nie len vtipné a pomerne nevinné montáže, ale aj falošné videá zo života celebrít.
„V súèasnej dobe sa tento trend usadil v oblasti politiky a my sme tak mohli vidie falošné videá Angely Merkelovej, Donalda Trumpa alebo Baracka Obamu. Avšak falošné video už spomenutého Baracka Obamu vyvolalo väèší rozruch. Doposia¾ sa jednalo o viac menej amatérske kúsky z výukových aplikácií, toto video je však nato¾ko vierohodné, že nad ním žasnú aj odborníci. Nová technológia dokázala, že ktoko¾vek, kto sa niekedy objaví na kamere, môže prehovori vaším hlasom. Odborníci výmenu tvárí považujú za neetickú a nebezpeènú. Odhaduje sa, že v priebehu dvoch až troch rokov môže predstavova ve¾ký problém. Zostavi výkonný software, ktorý by dokázal falošné videá rozpozna, sa zatia¾ nepodarilo. Preto je potreba o týchto manipulatívnych technikách vedie a by na ne pripravení.”
Zdroj: Národní informaèní centrum pro mládež
Formát videa ešte stále považujeme za dostatoèný dôkazný materiál v mnohých situáciach. Všetko zatia¾ nasvedèuje tomu, že sa blíži doba, kedy už ani video nebude dôveryhodným zdrojom. Bude potreba vytvori kvalitnú technológiu, ktorá bude videa preverova a deep fakes eliminova.
Na zneužití pokroku v tvorbe fotografií.
Na zneužití výrokov známych osobností.
1+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++
Film, dabing
¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾¾èšššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššššš
ffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffffhhhfffffffffffffffffffffffffffffffffffffffffffffffffffkgzhukhfuzhbjgkbvjoriugdjfjuvbijkhkzgrtábdbtufthuigtkfjdvuárgfbzvhjáufdvicrtujeritgfusjxydfixusvarj jcxsas&axj c vj kkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkkjfzhztnjxnehmneb gvcfb vfcbfxgrf ccccccccccccccccccccccccccccccccccr eeeeeeeeeeeeeeeeeeefb vrbrbrbrghhnnnn aq; assswwdswswxxqa