eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plPrawoGrupypl.soc.prawoRewolucja AI w "branży" przestępczej › Rewolucja AI w "branży" przestępczej
  • Path: news-archive.icm.edu.pl!news.icm.edu.pl!newsfeed.pionier.net.pl!goblin1!goblin.
    stu.neva.ru!newsfeed.neostrada.pl!unt-exc-01.news.neostrada.pl!unt-spo-a-01.new
    s.neostrada.pl!news.neostrada.pl.POSTED!not-for-mail
    Newsgroups: pl.soc.prawo
    X-Mozilla-News-Host: news://news.neostrada.pl:119
    From: u2 <u...@o...pl>
    Subject: Rewolucja AI w "branży" przestępczej
    Date: Fri, 6 Sep 2019 22:39:06 +0200
    User-Agent: Mozilla/5.0 (Windows NT 10.0; WOW64; rv:60.0) Gecko/20100101
    Thunderbird/60.9.0
    MIME-Version: 1.0
    Content-Type: text/plain; charset=utf-8; format=flowed
    Content-Language: pl
    Content-Transfer-Encoding: 8bit
    Lines: 51
    Message-ID: <5d72c3e9$0$541$65785112@news.neostrada.pl>
    Organization: Telekomunikacja Polska
    NNTP-Posting-Host: 83.9.94.2
    X-Trace: 1567802345 unt-rea-a-02.news.neostrada.pl 541 83.9.94.2:60292
    X-Complaints-To: a...@n...neostrada.pl
    Xref: news-archive.icm.edu.pl pl.soc.prawo:789406
    [ ukryj nagłówki ]

    https://www.cyberdefence24.pl/sztuczna-inteligencja-
    w-rekach-cyberprzestepcowfikcyjny-glos-lepszy-od-cyb
    eratakow


    Rewolucja AI w "branży" przestępczej: oszustwa głosowe nowym sposobem ataków

    4 września 2019, 13:37

    Szymon Palczewski

    Współcześnie trudno jest odróżnić wiarygodny i rzetelny tekst od fake
    newsa. To samo dotyczy nagrań wideo oraz audio. Dzięki innowacyjnym
    rozwiązaniom w łatwy sposób można stworzyć fałszywy dźwięk, który dla
    odbiorcy wydaje się prawdziwy - informuje serwis The Next Web.



    Wall Street Journal odnotował pierwszy przypadek oszustwa głosowego
    bazującego na sztucznej inteligencji (AI), tzw. vishing. Obecnie tego
    typu fikcyjne nagrania stają się coraz bardziej zaawansowane i zbliżone
    do rzeczywistych dźwięków.

    Jak podaje The Next Web, cyberprzestępcy sięgają po dostępne na rynku
    oprogramowania AI przeznaczone do generowania głosu, aby skutecznie
    realizować swoje złośliwe cele. Przykładem może być incydent, w którym
    oszuści podszywali się pod szefa jednej z niemieckich korporacji,
    będącej właścicielem brytyjskiej firmy energetycznej. Za pomocą
    oprogramowania wygenerowali ludzki głos z niemieckim akcentem, a
    następnie skontaktowali się z dyrektorem naczelnym koncernu, aby ten
    niezwłocznie przesłał określoną pulę środków okreslonemu węgierskiemu
    dostawy. Prezes firmy słysząc niemiecki akcent niczego nie podejrzewał.

    W ten sposób cyberprzestępcy weszli w posiadane dużej sumy pieniędzy,
    które następnie zostały ulokowane w różnych miejscach na świecie, w tym
    Meksyku. Służby pracują nad ustaleniem tożsamości oszustów.

    Według The Next Web ataki personifikacyjne oparte na sztucznej
    inteligencji to dopiero początek poważnych problemów dla firm i
    organizacji w najbliższej przyszłości. Częstotliwość tego typu oszustw z
    czasem wzroście wraz z rozwojem AI. Podszywając się pod różne osoby za
    pomocą fikcyjnego głosu, cyberprzestępcom dużo łatwiej uzyskać dostęp do
    konkretnych informacji lub przeprowadzić inne złośliwe działania.

    W celu zabezpieczenia firm oraz innych podmiotów przed podobnymi
    incydentami bardzo ważne jest, aby instrukcje głosowe były weryfikowane
    za pośrednictwem poczty elektronicznej lub innych alternatywnych środków
    - informuje serwis The Next Web.



    --
    I love love

Podziel się

Poleć ten post znajomemu poleć

Wydrukuj ten post drukuj


Następne wpisy z tego wątku

Najnowsze wątki z tej grupy


Najnowsze wątki

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1