Strona korzysta z plików cookies w celu realizacji usług i zgodnie z Polityką Plików Cookies.



29.10.2021

Veritas po raz 16. liderem...

Firma Veritas Technologies, producent uznanych rozwiązań backup klasy enterprise,...
21.10.2021

Zarządzanie IT

We wrześniu BTC Sp. z o.o. zaprezentowała premierową wersję systemu eAuditor V8 AI.
21.10.2021

Konferencja VMworld

Imagine That. Pod takim hasłem w dniach 5–7 października 2021 r. odbyła się jedna z...
21.10.2021

Darmowy deszyfrator

Bitdefender wspólnie z organami ścigania opracował i wydał narzędzie, które pozwala...
21.10.2021

Dell C1422H

Dell Technologies wprowadza do oferty przenośny monitor do zwiększenia wydajności pracy w...
21.10.2021

Dysk dla cyfrowych twórców

Western Digital zaprezentowało nowy dysk – WD Blue SN750 NVMe SSD.
21.10.2021

Projektory laserowe

Optoma wprowadza serię projektorów laserowych Ultra Bright ZU1700, ZU1900, ZU2200 z...
21.10.2021

Orzeł wśród routerów

D-Link wprowadza na rynek smart router EAGLE PRO AI AX1500 R15.
21.10.2021

Nowe generacje Ryzen i Epyc

AMD 3D V-Cache. AMD zapowiada procesory Ryzen i Epyc z nowym rozwiązaniem.

Zatrucie SEO

Data publikacji: 26-08-2021 Autor: Grzegorz Wieczorek

Nie będzie przesady w twierdzeniu, że SEO, czyli optymalizacja treści internetowych pod kątem ich widoczności w wyszukiwarkach, urosła niemal do rangi religii. Firmy prześcigają się w nowych metodach na przypodobanie się algorytmom Google'a, zaś cały rynek SEO prężnie rośnie w siłę. Kwestią czasu było, aż zostanie to dostrzeżone przez cyberprzestępców.

 

Przez lata rosnącej dominacji Google'a w funkcjonowaniu ogółu usług WWW pomiędzy korporacją a wydawcami internetowymi narodził się mutualizm. Ci ostatni nie mogą sobie już dziś pozwolić na bagatelizowanie widoczności ich witryn w wyszukiwarce, zaś sama wyszukiwarka byłaby mało przydatna, gdyby nie indeksowała produkowanych przez zewnętrzne firmy i zoptymalizowanych pod kątem Google'a treści. Z czasem jednak to Google zaczęło nadawać tej relacji ton poprzez faworyzowanie witryn przygotowanych w ten lub inny sposób. W rezultacie w pierwszej kolejności w wynikach wyszukiwania są wyświetlane strony, które możliwie jak najlepiej wpisują się w wytyczne opracowane w Mountain View. Z czasem jednak korporacja stworzyła format Accelerated Mobile Pages, który wywrócił mutualistyczną relację do góry nogami – nagle to Google zaczęło serwować internautom treści i to z własnych serwerów, systematycznie eliminując z obiegu strony główne witryn i odsyłając bezpośrednio do artykułów. Warto przy tym zaznaczyć, że jedyną dopuszczalną formą reklam w AMP były oczywiście te serwowane przez sieci reklamowe Google'a.

Nie brakuje głosów, że korporacja nieśpiesznie, ale skrupulatnie przesuwa szalę w tej relacji na swoją korzyść, cementując monopol na dostarczanie treści internetowych z pominięciem wydawców. Odbiło się to na ogromnym wzroście liczb tzw. wyszukiwań bezklikowych. Dziś, gdy zapytamy Google'a o to, kto był 30. prezydentem Stanów Zjednoczonych, od razu ujrzymy odpowiedź: John Calvin Coolidge Jr. Google samo pobiera treści i wyświetla je bezpośrednio nad wynikami wyszukiwania (tzw. snippety), a nie – jak miało to miejsce jeszcze kilka lat temu – prezentuje linki do stron, na których możemy uzyskać tę informację samodzielnie. Jak zbadała firma SparkToro w czerwcu 2019 roku, na 40 mln wyszukiwań w USA (pochodzących zarówno z urządzeń mobilnych, jak i pecetów) aż 50,33% to wyszukiwania bezklikowe.

GDZIE DWÓCH SIĘ BIJE…

 

Potencjał w pogłębiającym się z roku na rok konflikcie pomiędzy Google'a a wydawcami, a także w rosnącej sile branży SEO, prędzej czy później dostrzec musieli cyberprzestępcy. Sprawna manipulacja technikami optymalizacji treści pod kątem silników wyszukiwania pozwoliła na opracowanie przez nich zupełnie nowej odsłony znanej już klasy cyberzagrożeń. Służą one nie tylko nowym, zawoalowanym atakom phishingowym, ale też sprawnym manipulacjom informacjami, co przekłada się na dezinformowanie internautów – zdarzały się już nawet przypadki, że poprzez umyślne wpływanie na wyniki wyszukiwania swoją agendę realizowali politycy z pierwszych stron gazet.

My skupmy się jednak na technicznym aspekcie nowego typu zagrożeń, jakim jest zatrucie SEO. Ono samo zresztą dzieli się na liczne podkategorie i ma długą historię, jednak w ostatnim czasie można zauważyć dużą aktywność cyberprzestępców właśnie na tym polu. Uwagę na niebezpieczeństwo wynikające z manipulacji wynikami wyszukiwania zwrócili już uwagę eksperci z Microsoftu oraz eSentire. W kwietniu tego roku uruchomiona została kampania, w której wyniki wyszukiwania zalały świetnie wypozycjonowane witryny, które obiecywały dostarczać internautom przydatne pliki – na przykład gotowe wzory umów, urzędowych wniosków czy faktur. Według analityków Google'a zostało zalane ponad 100 tys. stron serwujących budzące zainteresowanie pliki. Nietrudno wyobrazić sobie dalszy ciąg – z wiarygodnych witryn przygotowanych między innymi za pomocą narzędzi Google Sites uruchamiano pętlę przekierowań na stronę dystrybuującą pliki w formacie PDF, które były zainfekowane malware'em typu RAT (Remote Access Trojan), znanym pod nazwami Jupyter, Yellow Cockatoo i Polazert, opracowanym przez grupę odpowiedzialną między innymi za backdoory SolarMaker. Ten konkretny szkodnik to opracowany w .NET trojan, który po infekcji dodaje się do folderu rozruchowego i modyfikuje skróty na windowsowym pulpicie ofiary, a następnie pobiera kolejne szkodniki zdolne do eskalacji uprawnień.

Samo nasuwa się pytanie – jak mogło dojść do tego, że główny produkt jednej z największej korporacji IT, która niewątpliwie jest w stanie zapewniać najwyższe standardy bezpieczeństwa, został wykorzystany do tak szeroko zakrojonej i niebezpiecznej kampanii? Jak na ironię atakujący twórczo wykorzystali mechanizmy windowania wyników rekomendowane przez samo Google – okazały się one zatem dla korporacji mieczem obosiecznym. Otóż oprócz żądanych przez potencjalne ofiary treści (jak choćby wspomniane wzory umów) pliki były wręcz naszpikowane dziesiątkami tysięcy skrupulatnie dobranych słów kluczowych – do każdego pliku dodanych było nawet 10 stron keywordów. Ponadto, jak już wspomniano, napastnicy wykorzystali do serwowania plików platformę, wobec której maszynowa ochrona wyszukiwarki miała największe zaufanie, a mianowicie Google Sites przy dużym, często najwyższym, wyniku PageRank. Gdy to zostało zauważone przez ekspertów, cyberprzestępcy przerzucili się na inne platformy cieszące się wysokim zaufaniem – hosting w ramach Amazon Web Services i popularne w USA narzędzie do no-code’owego przygotowywania stron internetowych – Stringly.

 

[...]

Pełna treść artykułu jest dostępna w papierowym wydaniu pisma.

.

Transmisje online zapewnia: StreamOnline

All rights reserved © 2019 Presscom / Miesięcznik "IT Professional"