Co je hluchý? Měli byste se bát?

Autor: Randy Alexander
Datum Vytvoření: 28 Duben 2021
Datum Aktualizace: 1 Červenec 2024
Anonim
Co je hluchý? Měli byste se bát? - Technologie
Co je hluchý? Měli byste se bát? - Technologie

Obsah


Deepfake obsah buduje chaos mezi lidmi, kteří vyrůstali s myšlenkou, že vidění věří. Fotografie a videa, kdysi považované za nepopiratelné důkazy o něčem, co se děje, jsou nyní masy zpochybňovány. To lze očekávat po zjištění úžasně realistického videa Baracka Obamy, který nazval prezidenta Trumpa „úplným a úplným poklesem ****“, není ničím jiným, než jen hluboce vytvořeným stvořením.

Deepfake obsah buduje chaos mezi lidmi, kteří vyrůstali s myšlenkou, že vidění věří.

Edgar Cervantes

Zapojená technologie vyvolává obočí a vytváří otázky, proto jsme tu proto, abychom vám poskytli plné hluboké falešné shrnutí toho, co to je, jak to funguje, a pokud existuje opravdu důvod k obavám.

Co je hluchý?


Deepfake je technika umělé inteligence (umělá inteligence), která používá strojové učení k vytváření nebo manipulaci s obsahem. Často se používá k vytváření sestřihů nebo k překrývání tváře osoby nad druhou, ale její schopnosti přesahují mnohem dále. Tato technologie má spoustu dalších aplikací. Patří mezi ně manipulace nebo vytváření zvuku, pohybu, krajiny, zvířat a dalších.

Jak funguje deepfake?

Deepfake obsah je vytvářen technikou strojového učení známou jako GAN (generative adversarial network). GAN používají dvě neuronové sítě: generátor a diskriminátor. Ty neustále soupeří proti sobě.

Generátor se pokusí vytvořit realistický obraz, zatímco diskriminátor se pokusí určit, zda je falešný nebo ne. Pokud generátor oklamá diskriminátora, použije diskriminační informace shromážděné, aby se stal lepším soudcem. Podobně, pokud diskriminátor určí, že obraz generátoru je falešný, bude generátor lepší při vytváření falešného obrazu. Nekonečný cyklus může pokračovat, dokud obraz, video nebo zvuk již není znatelně falešný pro lidskou perspektivu.


Původy

První deepfake videa byla samozřejmě porno!

Edgar Cervantes

První deepfake videa byla samozřejmě porno! Přesněji to bylo běžné vidět tváře celebrit překrývajících porno herečky. Nicholas Cage memy byly také populární, mezi jiné zábavné vynálezy.

Slovo deepfake se stalo synonymem této techniky v roce 2017, a to díky uživateli Reddit, který se jmenoval „deepfakes“. K uživateli se nyní přidali další uživatelé, kteří jsou nyní zakázáni r / deepfakes subreddit, kde sdíleli svá stvoření se světem.

Skutečným tvůrcem generativních kontradiktorních sítí je Ian Goodfellow. Spolu se svými kolegy představil tento koncept na univerzitě v Montrealu v roce 2014. Poté pokračoval v práci pro Google a v současné době je zaměstnán společností Apple.

Nebezpečí

Ve špatných rukou lze hluboce vytvořenou tvorbu použít k falšování mnohem více než hloupých memoí Nicholas Cage.

Edgar Cervantes

I když manipulace s obsahem není nic nového, vyžadovala to seriózní dovednosti. K vytvoření falešného obsahu potřebujete výkonný počítač a opravdu dobrý důvod (nebo příliš mnoho volného času). Software pro vytváření hlubokých tvorů, jako je FakeApp, je zdarma, snadno k nalezení a nevyžaduje mnoho počítačového výkonu. A protože vykonává veškerou svou práci samostatně, nemusíte být zručným editorem, abyste vytvořili šíleně skutečná hluboká média.

To je důvod, proč se veřejnost, celebrity, politické subjekty a vlády obávají hnutí hluboce falešných. Ve špatných rukou lze hluboce vytvořenou tvorbu použít k falšování mnohem více než hloupých memoí Nicholas Cage. Představte si, že někdo vytváří falešné zprávy nebo inkriminuje video důkaz. Můžete přidat falešné a pomstít porno k problému. Věci se mohou rychle zmatit.

Dalším důvodem k obavám z hlubokého falešného obsahu je skutečnost, že důležité osobnosti mohou také popírat minulé akce. Protože se videa deepfake zdají být tak skutečná, kdokoli by mohl tvrdit, že skutečný klip je falešný.

Přečtěte si také: Složitost etiky a umělé inteligence

Hledání řešení

I když je velmi blízko skutečnému, trénované oko může i nadále pozorovat falešné video pozorně. Jde o to, že v budoucnu možná nebudeme schopni rozeznat rozdíl.

Twitter, Pornhub, Reddit a další se neúspěšně pokusili zbavit takového obsahu. Na oficiálnější straně spolupracuje DARPA (agentura pro obranné pokročilé výzkumné projekty) s výzkumnými institucemi a univerzitou v Coloradu, aby vytvořily způsob, jak spatřit hluboké potoky.

To nejlepší, co můžeme v boji proti hluboce falešným videům udělat, je být více pozorný a méně naivní.

Edgar Cervantes

Dokud nebudeme mít software, který v takových videích zjistí nesrovnalosti, to nejlepší, co můžeme udělat, je pozornější a méně naivní. Proveďte výzkum, než se domníváte, že video, obrázek nebo zvuk jsou skutečné. To je něco, co jsme už měli dělat.

Populární deepfake obsah

Jordan Peele se připojil k Buzzfeedu a sestavil toto video, které má vytvořit vědomí.

Odborník na online manipulaci Claire Wardle nám ukazuje, jak realistická může tato videa vypadat, když se během prvních 30 sekund videa zobrazí jako Adele. Toto video z The New York Times nám dává skvělý náhled na toto téma.

Watchmojo dává má kurátor seznam některých z nejpopulárnějších deepfake videa kolem. Je to zábavné video se spoustou skvělých příkladů.

Bojíte se důsledků hluchých videí? Je to určitě téma, které bychom měli mít na paměti, a zároveň pracovat na hledání řešení.

Clah Royale je jedinečná hra na Google Play. Kombinuje prvky trategie v reálném čae, online multiplayer, běr karet a dueling karet. Opravdu neexituje název pro žánr, i když h...

Tracfone, která byla poprvé založena v roce 1996, pokytuje polehlivé lužby za kvělé ceny téměř čtvrt toletí. Při měíčních plánech pouhých 20 $ a až 30...

Pro Tebe