Bots machen 42 % des gesamten Webtraffics aus; fast zwei Drittel davon sind schädlich Unerkannte Web-Scraping-Bots wirken sich stark auf den E-Commerce aus
Juni 2024 von Akamai
Akamai Technologies, Inc. veröffentlichte heute einen neuen „State of the Internet“-Bericht (SOTI). Darin werden Sicherheitsrisiken und Geschäftsbedrohungen beschrieben, denen Unternehmen durch die Verbreitung von Web-Scraping-Bots ausgesetzt sind. In „Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft“ wird berichtet, dass Bots 42 % des gesamten Webtraffics ausmachen, und 65 % dieser Bots schädlich sind.
Aufgrund seiner Abhängigkeit von umsatzgenerierenden Webanwendungen ist der E-Commerce-Sektor am stärksten von riskantem Bot-Traffic betroffen. Während einige Bots für das Unternehmen von Vorteil sind, werden Web-Scraper-Bots für Informationsgewinnung über Mitbewerber und Spionage, Bestandsmanipulation, die Erstellung von gefälschten Websites und andere Kampagnen eingesetzt, die sich negativ auf das Geschäftsergebnis und das Kundenerlebnis auswirken. Es gibt keine Gesetze, die die Verwendung von Scraper-Bots verbieten, und sie sind aufgrund der Zunahme von KI-Botnets (künstliche Intelligenz) nur schwer zu erkennen. Trotzdem gibt es einige Möglichkeiten, damit umzugehen.
„Bots bringen weiterhin große Herausforderungen mit sich, die Anwendungs- und API-Eigentümern zahlreiche Probleme bereiten können“, so Patrick Sullivan, CTO, Security Strategy bei Akamai. „Dazu gehört auch das Scraping, wodurch Web-Daten gestohlen und Websites erstellt werden können, die eine Marke imitieren. Die Scraper-Landschaft ändert sich auch aufgrund von Entwicklungen wie Browser ohne Header. Dadurch müssen Unternehmen auf Botaktivitäten reagieren, die ausgefeilter sind als solche auf JavaScript-Basis.“
Wichtige Erkenntnisse aus dem Bericht:
● KI-Botnets können unstrukturierte Daten und Inhalte in einem weniger konsistenten Format oder an einem weniger konsistenten Ort erkennen und verarbeiten. Darüber hinaus können sie mithilfe von Geschäftsinformationen den Entscheidungsfindungsprozess durch Erfassen, Extrahieren und die anschließende Verarbeitung von Daten verbessern.
● Mit Scraper-Bots kann man zudem komplexere Phishing-Kampagnen generieren. Zu diesem Zweck werden Produktbilder, Beschreibungen und Preisinformationen erfasst und damit gefälschte Schaufenster oder Phishing-Websites erstellt, die darauf abzielen, Anmeldedaten oder Kreditkarteninformationen zu stehlen.
● Bots können auch eingesetzt werden, um die missbräuchliche Erstellung von Konten zu erleichtern, was nach aktuellen Untersuchungen bis zu 50 % der Verluste durch Betrug ausmacht.
● Zu den technischen Auswirkungen, denen Unternehmen durch Scraping ausgesetzt sind, unabhängig davon, ob das Scraping mit schädlichen oder guten Absichten durchgeführt wurde, gehören eine Verschlechterung der Website-Performance, einer Verwässerung der Website-Metriken, Angriffe mit kompromittierten Anmeldedaten von Phishing-Websites, erhöhte Rechenkosten und vieles mehr.
Der Bericht „Web-Scraper im E-Commerce“ zeigt Abwehrstrategien gegen Scraper-Bots auf und enthält eine Fallstudie, die erklärt, wie Websites viel schneller und effizienter funktionieren, sobald Abwehrmechanismen gegen diese Bots implementiert wurden. Darüber hinaus behandelt die Studie Compliance-Themen, die angesichts dieser zunehmenden Angriffe zu berücksichtigen sind.
In diesem Jahr feiern die „State of the Internet“-Berichte (SOTI) von Akamai bereits ihr zehnjähriges Bestehen. Die SOTI-Reihe bietet auf der Grundlage von Daten, die von der Akamai Connected Cloud gesammelt wurden, Experteneinblicke in die Bereiche Cybersicherheit und Webperformance.