Die Begegnung mit einem Roboter oder „Bot“ im Internet ist so alltäglich wie die Suche nach einem Paar Schuhe im Schrank.
Es ist ein grundlegender Bestandteil des Internets, aber die Nutzer haben einen kritischen Punkt erreicht: Immer mehr Menschen verlieren die Fähigkeit, zwischen Bots und Menschen zu unterscheiden.
Vor diesem Szenario haben Entwickler seit Jahren gewarnt, und es ist leicht zu erkennen, warum.
Eine kürzlich durchgeführte Studie kam zu dem Schluss, dass 47 Prozent des gesamten Internetverkehrs mittlerweile aus von Bots generierten Inhalten besteht. Das ist ein Anstieg von mehr als 5 Prozent zwischen 2022 und 2021. Gleichzeitig hat die menschliche Aktivität im Internet gerade den niedrigsten Stand seit acht Jahren erreicht.
In Verbindung mit den Fortschritten beim menschenähnlichen Austausch, der durch künstliche Intelligenz (KI) vorangetrieben wird, kann fast ein Drittel der Internetnutzer nicht mehr erkennen, ob sie mit einer Person interagieren.
Im April wurde eine bahnbrechende Studie mit dem Titel „Human or Not?“ (Mensch oder nicht?) gestartet, um festzustellen, ob Menschen erkennen können, ob sie mit einem anderen Menschen oder einem KI-Chatbot sprechen.
Mehr als 2 Millionen Freiwillige und 15 Millionen Gespräche später, haben 32 Prozent der Teilnehmer falsch gewählt.
Es gab auch kaum Unterschiede bei den Ergebnissen nach Altersgruppen. Ältere und jüngere Erwachsene hatten ähnliche Schwierigkeiten, zu erkennen, wer – oder was – am anderen Ende des Gesprächs war.
Das Fazit: Während superrealistische Bots fast die Hälfte des Internets übernommen haben, kann eine wachsende Zahl von Menschen dies nicht einmal erkennen.
Darüber hinaus führt diese historische Schnittmenge aus sich schnell entwickelnder Technologie und abnehmender Wahrnehmung in der Bevölkerung bereits zu Problemen in der realen Welt.
Fool Me Once – leg mich einmal rein
„Die Bot-Mensch-Verschmelzung ist wie ein Zaubertrick … Je intelligenter Bots werden, desto mehr riskieren wir, das Vertrauen in Online-Interaktionen zu verlieren“, so Daniel Cooper gegenüber der Epoch Times.
Daniel Cooper ist Tech-Entwickler und geschäftsführender Gesellschafter der Firma Lolly. Er merkte an, dass die Transparenz von Unternehmen und Websites entscheidend für das Vertrauen der Menschen in ihre Online-Interaktionen ist. Aber in der Zwischenzeit gibt es keinen Ersatz für den guten alten menschlichen Instinkt.
„Bots zu erkennen ist wie die Suche nach Waldo in einer Menschenmenge. Achten Sie auf sich wiederholende Muster, einen Mangel an Personalisierung oder schnelle Antworten. Vertrauen Sie außerdem auf Ihr Bauchgefühl. Wenn es sich komisch anfühlt, ist es das vielleicht auch“, sagt er.

Während sich ein Großteil der Diskussion über böswilligen oder „bösen Bot“-Verkehr auf die sozialen Medien konzentriert, hat der Einfluss bösartiger KI-Interaktionen viel weitreichendere Konsequenzen.
Das Vertrauen der Verbraucher in das Lesen von Online-Rezensionen für ein Produkt oder eine Dienstleistung ist schon seit Jahren problembeladen, aber es scheint einen neuen Meilenstein erreicht zu haben.
Im April dieses Jahres tauchten Berichte über KI-Sprachmodelle auf, die Bewertungen für Produkte auf Websites wie Amazon hinterlassen. Die Bot-Bewertungen waren leicht zu erkennen, da der Chatbot den Lesern im ersten Satz wörtlich mitteilte, dass es sich um ein KI-Sprachmodell handelte.
Aber nicht jeder Bot, der sich als Mensch ausgibt, ist so leicht zu erkennen.
Infolgedessen sind große Unternehmen und Suchmaschinen wie Google mit einem starken Anstieg falscher Bewertungen konfrontiert worden.
Letztes Jahr reichte Amazon eine Klage gegen gefälschte Bewertungsbroker auf Facebook ein, und Google musste 115 Millionen gefälschte Bewertungen entfernen.
Dies ist besorgniserregend, wenn man bedenkt, wie viele Menschen sich auf Produktbewertungen verlassen. Eine Umfrage aus dem Jahr 2023 ergab, dass Online-Rezensionen für 93 Prozent der Internetnutzer eine Rolle bei der Kaufentscheidung spielen.
„Mehr Bot-Verkehr könnte in der Tat die Schleusen für Online-Betrügereien öffnen“, sagte Herr Cooper.
Es scheint jedoch, dass diese Tore bereits geöffnet wurden.
Der Fuchs im Hühnerstall
Böser Bot-Traffic hat seit dem letzten Jahr um 102 Prozent zugenommen und könnte die von Menschen erstellten Inhalte vollständig überholen. Schon wieder.
Dies geschah 2016 und war besonders problematisch während der US-Präsidentschaftswahlen. Seitdem sind KI-generierte Inhalte immer raffinierter geworden, und Tech-Insider sagen, dass man sich auf eine weitere Bot-Welle im Jahr 2024 einstellen muss.
Und da es immer mehr Menschen schwerfällt, den Unterschied zu erkennen, haben Online-Betrüger einen erheblichen Vorteil.
„Die Schwierigkeiten bei der Unterscheidung zwischen Bots und echten Menschen werden mit der Entwicklung dieser Technologie wahrscheinlich noch größer werden, was den Internetnutzern schaden wird. Die Möglichkeit, von bösen Akteuren ausgenutzt zu werden, ist eine große Sorge“, sagte Vikas Kaushik, CEO von TechAhead, der Epoch Times.
Kaushik sagte, ohne die Möglichkeit, Bots zu identifizieren, könne man leicht auf Desinformation und Phishing-Betrug hereinfallen. Außerdem sind diese digitalen Betrügereien nicht immer offensichtlich.
Der Sicherheitsforscher Kai Greshake erklärte im März gegenüber Vice, dass Hacker den KI-Chatbot von Bing durch versteckte Textaufforderungen dazu bringen könnten, persönliche Daten von Nutzern zu erfragen.

„Als Mitglied der Branche sehe ich, dass sich dies zu einem ernsten Problem entwickelt“, sagte Kaushik und fügte hinzu: „Um komplexere Erkennungstechniken zu entwickeln und offene Standards für die Erkennung von Bots zu schaffen, müssen Entwickler und Wissenschaftler zusammenarbeiten.“
Seiner Meinung nach sind Aufklärungs- und Sensibilisierungskampagnen unerlässlich, damit die Öffentlichkeit vorsichtiger und selbstbewusster wird, wenn sie sich online mit Fremden unterhält“.
Herr Cooper stimmte dem zu.
„Die Verwechslung von Bot und Mensch könnte zu Missverständnissen, Misstrauen und dem Missbrauch persönlicher Daten führen. Es ist, als würde man mit einem Papagei chatten und ihn für einen Menschen halten: Es ist amüsant, bis er Ihre Geheimnisse ausplaudert.“
Er verglich die Zunahme des Bot-Verkehrs mit der Einladung eines Fuchses in den Hühnerstall. „Wir müssen wachsam und proaktiv sein, um uns zu schützen.
Aktiv werden
Für manche ist die Lösung ganz simpel. Einfach den Stecker aus der digitalen Welt ziehen.
Diese Meinung wird oft geteilt, ebenso wie die Vorstellung, aus dem Netz auszusteigen, und die Sehnsucht nach den Tagen, in denen die „Theorie vom toten Internet“ weniger plausibel erschien. Aber für viele ist das nicht realistisch.
Alternativ bemühen sich einige um ein Gleichgewicht bei ihrer Online-Nutzung, einschließlich der Einschränkung der Nutzung sozialer Medien.
Die Hassliebe der Menschheit zu den sozialen Medien, insbesondere zu Facebook und Twitter, hat bei Millionen von Menschen Ängste, Wut und Depressionen ausgelöst.
Trotz eines Anstiegs der Nutzung sozialer Medien in diesem Jahr glauben etwa zwei Drittel der Amerikaner, dass die Plattformen einen überwiegend negativen Einfluss auf das Leben haben.
Und die Zunahme des Bot-Verkehrs gießt Öl in dieses Feuer.
Sich von den sozialen Medien und ihren Bot-Schwärmen zurückzuziehen, hat seine Vorteile.
In einer Studie aus dem Jahr 2022 wurde festgestellt, dass Teilnehmer, die eine einwöchige Pause von den Plattformen einlegten, Verbesserungen bei Angstzuständen, Depressionen und ihrem allgemeinen Wohlbefinden erfuhren.
Da sich die täglichen Interaktionen der Menschen immer mehr von der physischen in die virtuelle Welt verlagern, sind die Menschen zunehmend vom Internet abhängig. Es stellt sich also die Frage: Können Menschen das Internet von den Bots zurückerobern?
Einige Technikexperten glauben, dass dies möglich ist. Und es beginnt damit, dass man den Menschen hilft, zu erkennen, womit sie sich beschäftigen.
„Es gibt ein paar Strategien, mit denen Nutzer Bots erkennen können“, erklärt Zachary Kann, Gründer von Smart Geek Home, gegenüber der Epoch Times.
Aufgrund seiner Erfahrung als Netzwerksicherheitsexperte sagte Kann, dass es Methoden gibt, mit denen ein Benutzer feststellen kann, ob er mit einer anderen Person interagiert.
Wie Mr. Cooper schlug er vor, Antwortmuster sorgfältig zu beobachten.
„Bots reagieren oft sofort und verwenden möglicherweise eine sich wiederholende Sprache.
Herr Kann sagte auch, dass die Leute ihre Profile überprüfen sollten, da Bots oft generische oder unvollständige Online-Profile haben.
Er fügte hinzu, dass die Unfähigkeit, zwischen Bots und Menschen zu unterscheiden, zu Problemen bei der Forschungsgenauigkeit führen kann.
„Es kann zu verzerrten Datenanalysen führen, da Bot-Interaktionen den Website-Traffic und die Engagement-Metriken aufblähen können.“
Quelle: The Epoch Times
Telegram zensiert nicht! Wenn du diese Information wichtig findest, kannst du Legitim auf Telegram kostenlos abonnieren: hier anmelden (Telegram herunterladen)