Twój koszyk jest pusty
Fałszywe nagrania wideo, zwłaszcza w obecnych czasach są rosnącym zagrożeniem. Mogą prowadzić do dezinformacji i manipulacji, a także do naruszenia prywatności i dóbr osobistych.
Deepfake’i zagrażają również demokracji poprzez sianie chaosu i dezinformacji w mediach społecznościowych i innych kanałach komunikacji masowej. Są więc poważnym wyzwaniem dla wolności wypowiedzi, prywatności i bezpieczeństwa.
Rozwiązania z zakresu cyberbezpieczeństwa służące wykrywaniu internetowych „fejków” pochłaniają ogromne sumy pieniędzy, ale do teraz nie są w stanie wykrywać fałszywych nagrań w czasie rzeczywistym - aplikacje wykrywające wymagają przesłania filmów do analizy, a następnie czekania godzinami na wyniki.
Oszustwo spowodowane przez deepfake'i może wyrządzić szkodę i spowodować negatywne konsekwencje, takie jak chociażby spadek zaufania do mediów. FakeCatcher pomaga przywrócić zaufanie, umożliwiając użytkownikom odróżnienie prawdziwych i fałszywych treści.
Intel FakeCatcher to platforma, która powstała w ramach prac Intela nad Responsible AI.
Działający w czasie rzeczywistym detektor, zaprojektowany przez specjalistów Intela we współpracy ze State University of New York at Binghamton, potrafi wykrywać fałszywe filmy z 96% wskaźnikiem dokładności, zwracając wyniki zaledwie w ciągu kilku milisekund.
FakeCatcher wykorzystując sprzęt i oprogramowanie Intela, działa na serwerze i komunikuje się z nim za pośrednictwem platformy internetowej. Od strony sprzętowej platforma może uruchomić do 72 różnych strumieni wykrywania jednocześnie na procesorach Intel® Xeon® Scalable trzeciej generacji.
Zoptymalizowana architektura oprogramowania korzysta między innymi z OpenVino do uruchomienia modeli AI dla algorytmów wykrywania twarzy i punktów orientacyjnych, Intel Integrated Performance Primitives do optymalizacji bloków wizji komputerowej oraz OpenCV do przetwarzania nagrań w czasie rzeczywistym.
Za wnioski oprogramowania odpowiadają Intel® Deep Learning Boost oraz Intel® Advanced Vector Extensions 512
Większość detektorów opartych na głębokim uczeniu patrzy na surowe dane, próbując znaleźć oznaki nieautentyczności i zidentyfikować, co jest nie tak z wideo.
W przeciwieństwie do tego, FakeCatcher szuka autentycznych wskazówek w prawdziwych filmach, oceniając to, co czyni nas ludźmi - subtelny "przepływ krwi" w pikselach filmu.
Kiedy nasze serce pompuje krew, nasze żyły zmieniają kolor. Te sygnały przepływu krwi są zbierane z całej twarzy, a algorytmy tłumaczą je na mapy przestrzenno-czasowe.
Następnie, wykorzystując głębokie uczenie, możemy natychmiast wykryć, czy wideo jest prawdziwe czy fałszywe.
Platformy mediów społecznościowych mają ogromny wpływ na życie ludzi. Dlatego jest ważne, aby te platformy działały w sposób odpowiedzialny i bezpieczny. Technologia FakeCatcher ma wszelkie predyspozycje, aby zapobiec przesyłaniu przez użytkowników szkodliwych filmów typu deepfake.
Rozwój technologii deepfake stanowi poważne wyzwanie dla wiarygodności informacji w związku z czym organizacje informacyjne, czy różnego rodzaju medialne organizacje non-profit mogłyby skorzystać z platformy detektora deepfake'ów, aby uniknąć nieumyślnego rozpowszechniania oszukańczych treści.
Zobacz również:
Zapisz się do naszego Newslettera, a otrzymywać będzieszważne wiadomości, oferty promocyjne oraz kody rabatowe.