Badanie Akamai koncentruje się przede wszystkim na „botach zbierających”, których zadaniem jest zbieranie danych i treści do wykorzystania w operacjach cyberprzestępczych. Boty te mogą znacząco wpłynąć na firmy internetowe, a algorytmy sztucznej inteligencji ułatwiają życie hakerom i przestępcom.
Jakie wnioski z raportu Akamai?
Raport Akamai na rok 2024 określa, że 42 procent całkowitego ruchu w sieci jest generowane przez boty, przy czym 65 procent tych botów ma wyraźnie złośliwe zamiary. Czy zatem internet to głównie… boty? Najbardziej dotknięty przez scraping (ekstrakcję danych z internetu) jest sektor e-commerce, gdzie odnotowano największy ruch botów określonych jako “wysoce ryzykowne”. Chociaż niektóre typy botów mogą przynosić korzyści firmom, boty przeglądające strony internetowe zazwyczaj mają negatywny wpływ zarówno na wyniki finansowe, jak i ogólne doświadczenie klienta. Są także wykorzystywane do podglądania konkurencji, klasycznego szpiegostwa, gromadzenia danych, a także tworzenia witryn oszukańczych i innych działań przestępczych.
Patrick Sullivan, dyrektor ds. technicznych firmy Akamai, wyjaśnia, że boty stwarzają poważne wyzwania, powodując „wiele problemów” dla aplikacji internetowych, usług i właścicieli interfejsów API. Boty z łatwością uzyskują zdjęcia produktów, opisy, informacje o cenach i inne dane. Cyberprzestępcy mogą następnie wykorzystać je do tworzenia fałszywych witryn internetowych, które podszywają się pod znane marki lub usługi detaliczne.
Czytaj też: Lepiej nie mieć Internetu wcale, niż mieć Facebooka bez limitu. Prezes UKE namiesza w ofertach operatorów
Gwałtowny rozwój botów jest związany z rozpowszechnieniem sztucznej inteligencji, dzięki której przestępcy łatwiej tworzą wyrafinowane mechanizmy. Korzystające z niej boty stają się coraz trudniejsze do wykrycia, sprawia również, że botnety oparte na sztucznej inteligencji mogą dobrze działać nawet w przypadku danych nieustrukturyzowanych i wykorzystywać rzeczywistą analizę biznesową, aby zapewnić oszustom znacznie udoskonalony „proces podejmowania decyzji”. Mogą oni zbierać, wydobywać i przetwarzać dane wydajniej niż kiedykolwiek wcześniej.
Boty przydają się im również do tworzenia nowych fałszywych kont, które można następnie wykorzystać do atakowania. A nawet nieszkodliwe boty usuwające dane mogą obniżyć wydajność witryny internetowej, wpłynąć na wskaźniki wyszukiwarek oraz zwiększyć koszty przetwarzania i hostingu. Te nowe zagrożenia wymagają nowatorskich, bardziej złożonych metod działania, wykraczających poza tradycyjne operacja. Podstawa to solidny firewall, ale niezbędne są również inne środki związane z bezpieczeństwem oraz ochroną ruchu sieciowego.