CERT RSS

Pretplati se na CERT RSS feed CERT RSS
Osvježeno: prije 6 minuta 33 sekunde

Kibernetičke prijetnje koje pokreće AI

čet, 2025-10-23 15:17

Autorica teksta: Louise Altvater, analitičarka kibernetičke sigurnosti, CSIRT FCCN, Portugal

Umjetna inteligencija posljednjih je godina postala jedna od najzanimljivijih tema u svijetu tehnologije. Prepoznata je po svojoj sposobnosti automatizacije ponavljajućih zadataka, analize velikih količina podataka brzinom nedostižnom čovjeku, pomoći u donošenju odluka, poboljšanju korisničke podrške, pa čak i stvaranju kreativnog sadržaja. No u području kibernetičke sigurnosti taj trend ima dvostruku prirodu: AI može biti moćan saveznik obrambenih timova, ali i oružje u rukama zlonamjernih aktera. Zlouporaba umjetne inteligencije ubrzava tempo, opseg i složenost napada, dok tradicionalne sigurnosne mjere često teško uspijevaju pravovremeno ih otkriti ili spriječiti.

AI i socijalni inženjering

Jedna od najzabrinjavajućih primjena AI-a jest u socijalnom inženjeringu, koji se temelji na psihološkoj manipulaciji kako bi se pojedince navelo da otkriju osjetljive podatke ili poduzmu štetne radnje. Tradicionalno su takve prijevare zahtijevale ručni rad, prevaranti su sami sastavljali phishing poruke, zvali žrtve telefonom ili izrađivali lažne dokumente. Danas AI automatizira i usavršava te procese.

Zlonamjerni akteri sada mogu stvarati hiperpersonalizirane phishing poruke koje oponašaju stil pisanja žrtvinog nadređenog, prijatelja ili kolege. Veliki jezični modeli (LLM – Large Language Models) mogu trenutno prilagoditi sadržaj na temelju podataka prikupljenih s društvenih mreža, čineći poruke uvjerljivima i relevantnima. Postoje čak i zlonamjerni LLM-ovi razvijeni upravo u tu svrhu, ali i legitimni modeli poput ChatGPT-a ili DeepSeek-a mogu se zlorabiti putem pažljivo osmišljenih upita kako bi proizveli sadržaj koji se koristi za phishing ili druge štetne aktivnosti.

Deepfake prijevare

Tehnologija deepfakea dodatno produbljuje razinu prevare. AI danas može stvoriti videozapise i audiozapise koji vjerno repliciraju nečije lice, glas i geste. U jednom poznatom slučaju, djelatnik multinacionalne tvrtke u Hong Kongu prevaren je da prebaci više od 25 milijuna dolara nakon što je prisustvovao videokonferenciji na kojoj su svi „sudionici“ zapravo bili AI-generirani deepfakeovi stvarnih kolega. Prevara nije uspjela zbog tehničke ranjivosti, već zato što su napadači savršeno simulirali ljudsku prisutnost i izbjegli pobuditi sumnju.

Osim lažnih glasova i videa, AI može generirati slike koje se ne mogu provjeriti klasičnim metodama poput obrnutog pretraživanja slika (npr. Google Lens, TinEye). Takvi se vizuali stvaraju od nule, bez ikakvog izvora, pa je nemoguće potvrditi njihovu autentičnost. Ova se mogućnost sve češće koristi u prijevarama za stvaranje lažnih dokaza, izmišljenih događaja ili identiteta koji izgledaju stvarno, iako ne postoje u stvarnosti.

Socijalni inženjering samo je dio zlonamjernog potencijala AI-a. Napadači ga kombiniraju s automatiziranim skeniranjem velikih mreža u nekoliko minuta radi pronalaska ranjivih sustava. Time se obrambenim timovima drastično smanjuje vrijeme potrebno za primjenu sigurnosnih zakrpi.

Nakon što se pronađu ranjivosti, umjetna inteligencija može pomoći u izradi zlonamjernog softvera koji kontinuirano mijenja svoj kôd kako bi izbjegao detekciju tradicionalnih alata poput antivirusa.

AI je također smanjio tehničku prepreku za ulazak u kibernetički kriminal. Kriminalci više ne trebaju napredne tehničke vještine – mogu iskoristiti crno tržište AI alata, dostupnih na forumima dark weba. Ti alati djeluju kao „maliciozni asistenti“, generirajući uvjerljive phishing poruke, zlonamjerni kôd ili nudeći detaljne upute za iskorištavanje ranjivosti.

Obrana od AI kibernetičkih prijetnji

Obrana protiv napada koji koriste umjetnu inteligenciju zahtijeva proaktivan i strateški pristup, a ne samo reaktivne mjere. Organizacije bi trebale jasno definirati ciljeve korištenja AI-a u sigurnosnim operacijama, osiguravajući da on podržava konkretne obrambene funkcije. AI se treba integrirati s postojećim sigurnosnim alatima i poboljšati ih, a ne potpuno zamijeniti. Neki stručnjaci upozoravaju da bi se AI trebao promatrati i kao potencijalna prijetnja koju treba nadzirati, s obzirom na mogućnost manipulacije ili kompromitiranja.

Transparentnost je ključna: potrebno je dati prednost interpretabilnim AI sustavima kako bi analitičari razumjeli način donošenja odluka, mogli predvidjeti ponašanje sustava i provjeriti njegovu učinkovitost. Uz to, ljudi moraju zadržati kontrolu, AI bi trebao pomagati timovima kibernetičke sigurnosti, a ne donositi odluke bez nadzora. I na kraju, AI sustave treba redovito ažurirati i pratiti, jer napadači stalno razvijaju nove metode.

O autorici

Louise Altvater je sigurnosna analitičarka u CSIRT FCT-u, timu koji je odgovoran za incidente unutar FCCN-a, odjel za digitalne usluge koji za cilj ima doprinijeti razvoju znanosti, tehnologije i znanja u Portugalu. Više od tri godine dio je tima za odgovor na incidente, doprinoseći otkrivanju, analizi i koordinaciji odgovora na incidente kibernetičke sigurnosti. Između ostalog, njezin rad uključuje provođenje revizija sigurnosti web aplikacija, identificiranje ranjivosti i podršku partnerima u jačanju njihove ukupne sigurnosne pozicije. Po obrazovanju je psihologinja, što joj omogućuje da u sigurnost unosi ljudsku perspektivu, fokusirajući se na ponašanje korisnika i ljudske čimbenike koji stoje iza digitalnih prijetnji. Jedno od njezinih profesionalnih interesa jest prikupljanje obavještajnih podataka o prijetnjama (threat intelligence) i njihova uloga u predviđanju te razumijevanju novih rizika u kibernetičkom prostoru.

The post Kibernetičke prijetnje koje pokreće AI first appeared on CERT.hr.

Webinar – AI, Cybersecurity, and the Human Factor: Building Resilience in the Age of Intelligent Threats

uto, 2025-10-21 15:31

Početak 23. listopada 2025. u 15:00h
Kraj 23. listopada 2025. u 16:00h
(Vremenska zona – Europa/Amsterdam)

Prijava na webinar: Webinar – AI, Cybersecurity, and the Human Factor: Building Resilience in the Age of Intelligent Threats (October 23, 2025) · GÉANT Events Management System (Indico)

Opis webinara

Ovaj će webinar govoriti o tome kako umjetna inteligencija (AI) mijenja krajolik kibernetičkih prijetnji i što ljudi mogu učiniti po tom pitanju. Kibernetički krajolik prijetnji brzo se razvija, a umjetna inteligencija igra ključnu ulogu na obje strane sukoba.

Tijekom sesije istražit će se kako zlonamjerni akteri koriste AI za automatizaciju napada, izbjegavanje otkrivanja i iskorištavanje ljudskih slabosti. Istodobno će se razmotriti kako se AI koristi u obrambene svrhe – za brže otkrivanje prijetnji, učinkovitiji odgovor i izgradnju otpornijih sustava.

Webinar će se također baviti aktualnim pitanjima vezanima uz etiku i upravljanje umjetnom inteligencijom te ponuditi praktične uvide u to kako organizacije mogu odgovorno djelovati u ovom složenom okruženju.

O Mariji Bada

Maria Bada je viša predavačica na Queen Mary University u Londonu. Maria je bihevioralna znanstvenica, a njezin se rad fokusira na ljudske aspekte kibernetičke sigurnosti i interakciju čovjeka i računala. Njezina istraživanja usmjerena su na učinkovitost kampanja za podizanje svijesti o kibernetičkoj sigurnosti te na razvoj preventivnih aktivnosti koje povećavaju otpornost malih i srednjih poduzeća na kibernetički kriminal.

Istražuje različite vrste internetskih prijetnji koje pogađaju ranjive skupine i njihove međusobne povezanosti, kao i društvene i psihološke posljedice kibernetičkih napada – poput raširene tjeskobe i društvenih poremećaja koji utječu na svakodnevni život ljudi. Također proučava ekosustav kibernetičkog kriminala, analizirajući profile, načine djelovanja i percepciju rizika kibernetičkih kriminalaca te načine na koje oni formiraju svoje grupe.

Surađivala je s vladinim tijelima, policijom i organizacijama iz privatnog sektora na procjeni nacionalnih kapaciteta za kibernetičku sigurnost i razvoju mjera za povećanje otpornosti. Članica je Nacionalne skupine stručnjaka za bihevioralne znanosti u okviru procjene nacionalnih rizika (NRA) u Ujedinjenom Kraljevstvu, gdje istražuje društvene i psihološke učinke kibernetičkih napada na građane.

Više o webinaru možete pročitati na: https://connect.geant.org/2025/10/13/ai-and-the-human-factor-from-blind-trust-to-mindful-action

The post Webinar – AI, Cybersecurity, and the Human Factor: Building Resilience in the Age of Intelligent Threats first appeared on CERT.hr.

Kako umjetna inteligencija mijenja phishing

pon, 2025-10-20 16:26

Phishing ostaje jedna od najraširenijih i najopasnijih prijetnji za pojedince i organizacije. Tradicionalno prepoznajemo phishing tako što tražimo ključne pokazatelje koji bude našu sumnju. Međutim, s porastom dostupnosti umjetne inteligencije (AI), ti pokazatelji postaju sve teže uočljivi ili su potpuno nestali, čime se povećava rizik od kompromitacije.

Tradicionalni znakovi phishinga

Uobičajeno prepoznajemo phishing tražeći ključne pokazatelje kao što su:

  • pravopisne i gramatičke pogreške
  • nevjerojatna, vremenski ograničena ponuda ili snažan poticaj da „kliknete ovdje/sada“
  • e-poruka koja ne koristi vaše ime
  • slike ili dizajn koji izgledaju poznato, ali ne djeluju sasvim ispravno
  • neuobičajena adresa e-pošte
  • poticanje da otvorite nepoznatu poveznicu
  • zahtjev da podijelite osobne podatke

Ako se primijeti čak i jedan ili dva od ovih pokazatelja — ili jednostavno imate loš osjećaj — trebao bi se upaliti „alarm“ i takvu poruku treba prijaviti.

Uspon umjetne inteligencije i njezin utjecaj na phishing

Nedavni razvoj i dostupnost umjetne inteligencije doveli su do velikog napretka u mnogim područjima, uključujući pisanje e-poruka. Nažalost, to znači da kriminalci sada mogu iskoristiti AI za stvaranje uvjerljivijih phishing poruka.

Tvrtka Hoxhunt je navela da je od 386.000 analiziranih zlonamjernih e-poruka, između 0,4% i 4,7% bilo napisano pomoću umjetne inteligencije. Korištenje AI-ja povećava rizik za primatelje jer takve poruke često izgledaju profesionalnije, bez pravopisnih ili gramatičkih pogrešaka, što ih čini uvjerljivijima.

Na primjer, jednostavan upit u alatu Copilot pokazuje učinkovitost i točnost AI-napisane e-pošte:

„Možeš li mi napisati e-poruku kojom pozivam zaposlenike na sastanak tima?“

Možda ćete primijetiti da tekst generiran pomoću umjetne inteligencije obično koristi duge rečenice s pretjerano formalnim ili složenim riječima, koje često nemaju dovoljno detalja, emocije ili humora (iako to nije uvijek slučaj jer se upute za generiranje mogu prilagoditi da uključe te elemente). To nam može biti znak da je e-poruku napisala umjetna inteligencija i potaknuti nas da razmislimo radi li se možda o phishingu. Međutim, e-poruke napisane pomoću umjetne inteligencije također dolaze i iz službenih izvora, pa iako je korisno poznavati neke ključne pokazatelje poruka napisanih pomoću umjetne inteligencije, to ih ne čini automatski phishingom.

Čini li umjetna inteligencija naše tradicionalne pokazatelje phishinga zastarjelima?

Čak i uz očekivani porast korištenja umjetne inteligencije za izradu uvjerljivih phishing poruka, mnogi tradicionalni znakovi phishinga i dalje ostaju važeći.

Korištenje AI-ja ne bi trebalo promijeniti činjenicu da bismo trebali posumnjati u neželjenu poruku koja sadrži vremenski ograničenu ponudu, zahtijeva hitnu reakciju ili neočekivano traži osobne podatke.

Važno je da ostanemo oprezni i da nas bolje napisana ili profesionalnije oblikovana e-poruka ne odvrati od našeg instinkta za prepoznavanje phishinga. Trebali bismo se dodatno usredotočiti na sadržaj i kontekst poruke – ima li smisla? Jeste li je očekivali? Pokušava li utjecati na vaše donošenje odluka, kao što je objašnjeno u vodiču Understanding the bait could prevent you from becoming the next phish?

Ako poruka dolazi od nekoga koga poznajete, ali vam se i dalje čini sumnjivom – provjerite putem drugog kanala komunikacije. Činjenica da je e-poruku napisala umjetna inteligencija također ne znači da ne možemo provjeriti određene detalje, poput adrese pošiljatelja – ako ona izgleda neuobičajeno, možda ne trebate tražiti dalje.

Trebali bismo također biti svjesni novih prijetnji i tehnika koje kriminalci koriste, kako bismo zaštitili sebe i svoje organizacije od uvijek prisutne opasnosti phishinga.

Izvori:

  1. Phishing Trends Report (Updated for 2025)
  2. How to spot a phishing email – Stop! Think Fraud
  3. AI-powered phishing attacks are on the rise and getting smarter – here’s how to stay safe | TechRadar
  4. 5 Easy Ways To Tell If Written Content Came From Generative AI
  5. How to Spot AI-Generated Text: Common Words and Phrases That Give It Away | by Ava Thompson | Medium

The post Kako umjetna inteligencija mijenja phishing first appeared on CERT.hr.

Upozorenje: F5 Sigurnosni incident

pet, 2025-10-17 09:28

U kolovozu 2025. otkriveno je da je državno sponzorirani napadač dugotrajno imao pristup te preuzimao datoteke s određenih F5 sustava. Ti sustavi uključivali su razvojno okruženje proizvoda BIG-IP i platforme za upravljanje inženjerskim znanjem. Poduzete su opsežne mjere za suzbijanje napadača. Od početka tih aktivnosti nisu uočene nove neovlaštene aktivnosti.

Kao odgovor na ovaj incident, u F5 poduzimaju proaktivne mjere za zaštitu korisnika i jačanje sigurnosnog okvira korporativnih i proizvodnih okruženja. Angažirali su stručnjake iz CrowdStrikea, Mandianta i drugih vodećih tvrtki u području kibernetičke sigurnosti te aktivno surađuju s policijom i vladinim partnerima. 

Objavljene su nadogradnje za BIG-IP, F5OS, BIG-IP Next za Kubernetes, BIG-IQ i APM klijente. Više informacija dostupno je u Kvartalnom sigurnosnom izvješću – listopad 2025. Preporučuje se instalacija nadogradnji što je prije moguće. 

Što se zna? 

Na temelju dostupnih logova: 

  • Utvrđeno je da je napadač preuzeo datoteke iz razvojno-proizvodnog okruženja BIG-IP i platforme za upravljanje inženjerskim znanjem. Te datoteke sadržavale su dio izvornog kôda BIG-IP i informacije o neotkrivenim ranjivostima na kojima je rađeno. Ne postoje saznanja o kritičnim ili udaljenim ranjivostima za koje javnost nije obaviještena niti o aktivnom iskorištavanju takvih ranjivosti. 
  • Ne postoje dokazi o pristupu ili preuzimanju podataka iz CRM, financijskih, sustava za upravljanje podrškom ili iHealth sustava. Ipak, neke preuzete datoteke s platforme za upravljanje znanjem sadržavale su konfiguracijske ili implementacijske informacije za mali postotak korisnika. Trenutno se te datoteke pregledavaju i prema potrebi komunicirat će se izravno s pogođenim korisnicima. 
  • Ne postoje dokazi o izmjenama u softverskom opskrbnom lancu, uključujući izvorni kôd te build i release pipeline. Ovo je potvrđeno neovisnim pregledima vodećih tvrtki za kibernetičku sigurnost NCC Group i IOActive
  • Ne postoje dokazi da je napadač pristupio ili izmijenio NGINX izvorni kôd ili razvojno okruženje proizvoda, niti da je pristupio ili mijenjao F5 Distributed Cloud Services ili Silverline sustave. 

Što možete učiniti? 

Prioritet je pomoći korisnicima da ojačaju i zaštite svoje F5 okruženje od rizika povezanih s ovim incidentom. Dostupni su sljedeći resursi: 

  • Nadogradnja BIG-IP softvera: Dostupna je nadogradnja za BIG-IP, F5OS, BIG-IP Next za Kubernetes, BIG-IQ i APM klijente. Iako ne postoje saznanja o neotkrivenim kritičnim ranjivostima, preporučuje se da se nadogradnja instalira što prije. Više informacija dostupno je u Kvartalnom sigurnosnom izvješću
  • Obavještavanje o prijetnjama: F5 podrška nudi vodič za otkrivanje prijetnji kako bi se ojačala detekcija i nadzor u vašem okruženju. 
  • Preporuke za jačanje sigurnosti: Objavljene su najbolje prakse za jačanje F5 sustava i dodane su automatske provjere u F5 iHealth Diagnostic Tool, koje otkrivaju ranjivosti, prioritiziraju akcije i pružaju poveznice na upute za otklanjanje problema. 
  • Integracija sa SIEM i nadzor: Preporučuje se omogućavanje BIG-IP event streaminga u vaš SIEM i pružanje detaljnih uputa za konfiguraciju sysloga (KB13080) i praćenje pokušaja prijave (KB13426). Ovo poboljšava vidljivost i obavještavanje o administrativnim prijavama, neuspjelim autentikacijama i promjenama privilegija i konfiguracija. 

Globalni tim podrške: Možete otvoriti MyF5 podršku ili kontaktirati F5 podršku za pomoć pri ažuriranju BIG-IP softvera, implementaciji preporuka ili za sva pitanja. Stranica će se redovito ažurirati novim informacijama i resursima. 

Što je napravljeno? 

Poduzeti su, I dalje se poduzimaju značajni koraci za zaštitu korisnika kroz otklanjanje prijetnje i jačanje sigurnosti ključne infrastrukture i proizvoda. 

Od početka rješavanja incidenta: 

  • Promijenjeni su pristupni podaci i ojačane kontrole pristupa u svim sustavima. 
  • Implementirana su poboljšanja u automatizaciji inventara i upravljanju zakrpama te dodatni alati za nadzor i otkrivanje prijetnji. 
  • Ojačana je mrežna sigurnosna arhitektura. 
  • Ojačano je razvojno okruženje proizvoda, uključujući sigurnosne kontrole i nadzor svih platformi za razvoj softvera. 

Dodatne mjere za jačanje sigurnosti proizvoda: 

  • Nastavlja se s pregledom kôda i penetracijskim testiranjem uz podršku NCC Group i IOActive kako bi se otkrile i otklonile ranjivosti u kôdu. 
  • Suradnja s CrowdStrikeom za proširenje Falcon EDR senzora i Overwatch Threat Huntinga na BIG-IP radi veće vidljivosti i jačanja obrane. Rano izdanje bit će dostupno BIG-IP korisnicima, a svim podržanim korisnicima F5 pružit će besplatnu pretplatu na Falcon EDR. 

The post Upozorenje: F5 Sigurnosni incident first appeared on CERT.hr.

Stranice