PolskiEnglish
Strona Główna |Impressum |Kariera tel.:(+48) 22 440 15 00
creditreform@creditreform.pl
Creditreform Polska Sp. z o.o.
Kontakt 08:00 - 16:00

22 440 15 00

creditreform@creditreform.pl

Biznesowe wykorzystanie skanów twarzy budzi obawy

Firmy powinny przygotować się na dwa pojawiające się zagrożenia związane ze sztuczną inteligencją: głębokie podróbki tekstowe i hakowanie modeli AI, informuje Jared Council WSJ Pro.

technological-scanning-woman-face-concept-security-153959940-jpg

 Camille François, dyrektor ds. Innowacji w firmie analityki społecznościowej Graphika Inc., powiedziała, że ​​obecnie największe zagrożenie wynika ze sfabrykowanych artykułów prasowych, stron internetowych lub innych treści tekstowych tworzonych przez AI, które nazwała „podróbkami odczytu”. Zaleciła firmom współpracę z dostawcami specjalizującymi się w wykrywaniu zmanipulowanych treści.

Innym zagrożeniem cyberbezpieczeństwa związanym ze sztuczną inteligencją jest hackowanie modeli, powiedziała podczas tego samego panelu Celeste Fralick, główny specjalista ds. danych i starszy główny inżynier firmy McAfee zajmującej się oprogramowaniem do bezpieczeństwa cybernetycznego. Znane również jako ataki na przeciwdziałanie uczenia maszynowego, występuje wtedy, gdyprzestępca próbuje znaleźć i wykorzystać luki w systemie AI. Zdaniem Celeste Fralick, ​​najlepszym sposobem walki z tym jest przetestowanie systemów AI podczas programowania i po wdrożeniu.

Inne rekomendacje cyberbezpieczeństwa zostały wymienione w raporcie opublikowanym w październiku przez Gartnera. Firma badawczo-doradcza stwierdziła, że ​​firmy powinny opracować strategię bezpieczeństwa AI, w tym „zabezpieczyć dane szkoleniowe AI, rurociągi szkoleniowe i modele [uczenia maszynowego]” oraz „przewidywać niecne wykorzystanie AI przez atakujących”.

Pan/Pani
Firma:
Imię:
Nazwisko:
Adres e-mail:
*
Współpracujemy z

Federation of Business Information Service

Monitor Urzędowy