Es ist ein grundlegender Bestandteil des Internets, aber die Nutzer haben einen kritischen Punkt erreicht: Immer mehr Menschen verlieren die Fähigkeit, zwischen Bots und Menschen zu unterscheiden.

Vor diesem Szenario haben Entwickler seit Jahren gewarnt, und es ist leicht zu verstehen, warum.

Eine kürzlich durchgeführte Studie kam zu dem Ergebnis, dass 47 Prozent des gesamten Internetverkehrs mittlerweile aus von Bots generierten Inhalten besteht. Das ist ein Anstieg von mehr als 5 Prozent zwischen 2022 und 2021, während die menschliche Aktivität im Internet gerade den niedrigsten Stand seit acht Jahren erreicht hat.

In Verbindung mit den Fortschritten bei der menschenähnlichen Interaktion, die durch künstliche Intelligenz (KI) vorangetrieben wird, kann fast ein Drittel der Internetnutzer nicht mehr erkennen, ob sie mit einer Person interagieren.

Im April wurde eine bahnbrechende Studie mit dem Titel Human or Not? (Mensch oder nicht?) gestartet, um herauszufinden, ob Menschen erkennen können, ob sie mit einer anderen Person oder einem KI-Chatbot sprechen.

Mehr als 2 Millionen Freiwillige und 15 Millionen Gespräche später lagen 32 Prozent der Teilnehmer falsch.

Die Ergebnisse unterschieden sich kaum nach Altersgruppen. Ältere und jüngere Erwachsene hatten ähnliche Schwierigkeiten zu erkennen, wer – oder was – am anderen Ende des Gesprächs war.

Das Fazit: Während superrealistische Bots fast die Hälfte des Internets übernommen haben, kann eine wachsende Zahl von Menschen sie nicht einmal erkennen.

Ferner führt dieses historische Zusammentreffen von sich schnell entwickelnder Technologie und abnehmender Wahrnehmung in der Bevölkerung bereits zu Problemen in der realen Welt.

Täusche mich doch

„Die Verschmelzung von Bot und Mensch ist wie ein Zaubertrick … Da Bots immer intelligenter werden, laufen wir Gefahr, das Vertrauen in Online-Interaktionen zu verlieren“, so Daniel Cooper gegenüber The Epoch Times.

Daniel Cooper ist Technologieentwickler und geschäftsführender Gesellschafter der Firma Lolly. Er merkte an, dass die Transparenz von Unternehmen und Websites entscheidend für das Vertrauen der Menschen in ihre Online-Interaktionen sei. Bis dahin gebe es aber keinen Ersatz für den guten alten menschlichen Instinkt.

„Bots zu erkennen ist wie die Suche nach einem Hund in einer Menschenmenge. Achten Sie auf sich wiederholende Muster, mangelnde Personalisierung oder schnelle Antworten. Vertrauen Sie auch Ihrem Bauchgefühl. Wenn Sie das Gefühl haben, dass etwas nicht stimmt, könnte es das sein“, sagt er.

Während sich ein Großteil der Diskussion über böswilligen oder „bösen Bot“-Verkehr auf soziale Medien konzentriert, hat der Einfluss missbilligter KI-Interaktionen viel weitreichendere Folgen.

Das Vertrauen der Verbraucher in das Lesen von Online-Rezensionen über ein Produkt oder eine Dienstleistung ist seit Jahren problematisch, scheint aber einen neuen Meilenstein erreicht zu haben.

Im April dieses Jahres tauchten Berichte über KI-Sprachmodelle auf, die Produktbewertungen auf Websites wie Amazon hinterließen. Die Bot-Bewertungen waren leicht zu erkennen, da der Chatbot die Leser im ersten Satz wörtlich darauf hinwies, dass es sich um ein KI-Sprachmodell handelte.

Doch nicht jeder Bot, der sich als Mensch ausgibt, ist so leicht zu erkennen.

Das hat dazu geführt, dass große Unternehmen und Suchmaschinen wie Google mit einem starken Anstieg falscher Bewertungen konfrontiert sind.

Im vergangenen Jahr reichte Amazon eine Klage gegen Fake-Bewertungsbroker auf Facebook ein, und Google musste 115 Millionen gefälschte Bewertungen entfernen.

Dies ist besorgniserregend, wenn man bedenkt, wie viele Menschen sich auf Produktbewertungen verlassen. Eine Umfrage aus dem Jahr 2023 ergab, dass Online-Rezensionen für 93 Prozent der Internetnutzer eine Rolle bei der Kaufentscheidung spielen.

„Mehr Bot-Verkehr könnte in der Tat die Tore für Online-Betrug öffnen“, sagte Cooper.

Es scheint jedoch, dass diese Schleusen bereits geöffnet wurden.

Der Fuchs im Hühnerstall

Bösartiger Bot-Traffic ist seit letztem Jahr um 102 Prozent gestiegen und könnte die von Menschen erstellten Inhalte komplett überholen. Schon wieder.

Das geschah 2016 und war vor allem während der Präsidentschaftswahlen in den USA problematisch. Seitdem sind KI-generierte Inhalte immer raffinierter geworden, und Tech-Insider sagen voraus, dass wir uns bis 2024 auf eine weitere Bot-Welle einstellen müssen.

Und da immer mehr Menschen Schwierigkeiten haben, den Unterschied zu erkennen, haben Online-Betrüger einen großen Vorteil.

„Die Schwierigkeit, Bots von echten Menschen zu unterscheiden, wird mit der Weiterentwicklung dieser Technologie wahrscheinlich noch zunehmen, zum Nachteil der Internetnutzer. Die Möglichkeit, von böswilligen Akteuren ausgenutzt zu werden, ist eine große Sorge“, sagte Vikas Kaushik, CEO von TechAhead, gegenüber The Epoch Times.

Kaushik sagte, ohne die Möglichkeit, Bots zu identifizieren, könne man leicht auf Desinformation und Phishing-Betrug hereinfallen. Außerdem seien diese digitalen Betrügereien nicht immer offensichtlich.

Der Sicherheitsforscher Kai Greshake erklärte im März gegenüber Vice, dass Hacker den KI-Chatbot von Bing durch versteckte Textaufforderungen dazu bringen könnten, persönliche Daten von Nutzern abzufragen.

„Als Teil der Branche sehe ich, dass dies zu einem ernsten Problem wird“, sagte Kaushik und fügte hinzu: Um komplexere Erkennungstechniken zu entwickeln und offene Standards für die Erkennung von Bots zu schaffen, müssen Entwickler und Wissenschaftler zusammenarbeiten.

Seiner Ansicht nach sind Aufklärungs- und Sensibilisierungskampagnen unerlässlich, um die Öffentlichkeit vorsichtiger und selbstbewusster zu machen, wenn sie online mit Fremden kommuniziert.

Cooper stimmte dem zu.

„Die Verwechslung von Bot und Mensch kann zu Missverständnissen, Misstrauen und Missbrauch persönlicher Daten führen. Es ist, als würde man mit einem Papagei chatten und ihn für einen Menschen halten: Es ist lustig, bis er Ihre Geheimnisse wiederholt.

Er verglich die Zunahme des Bot-Traffics mit der Einladung eines Fuchses in den Hühnerstall. „Wir müssen wachsam und proaktiv sein, um uns zu schützen.

Maßnahmen ergreifen

Für einige ist die Lösung einfach. Einfach den Stecker aus der digitalen Welt ziehen“.

Diese Meinung wird oft geäußert, ebenso wie die Idee, aus dem Netz auszusteigen, und die Sehnsucht nach den Tagen, als die Theorie vom „toten Internet“ weniger plausibel erschien. Für viele ist dies jedoch keine realistische Option.

Stattdessen versuchen einige, ihre Online-Nutzung auszubalancieren, indem sie unter anderem die Nutzung sozialer Medien einschränken.

Die Hassliebe der Menschheit zu den sozialen Medien, insbesondere zu Facebook und Twitter, hat bei Millionen von Menschen Ängste, Wut und Depressionen ausgelöst.

Obwohl die Nutzung sozialer Medien in diesem Jahr zugenommen hat, glauben etwa zwei Drittel der Amerikaner, dass diese Plattformen einen überwiegend negativen Einfluss auf ihr Leben haben.

Und die Zunahme des Bot-Traffics gießt Gas ins Feuer.

Sich von den sozialen Medien und ihren Bot-Schwärmen zurückzuziehen, hat seine Vorteile.

In einer Studie aus dem Jahr 2022 wurde festgestellt, dass Teilnehmer, die eine einwöchige Auszeit von den Plattformen nahmen, eine Verbesserung ihrer Angstzustände, Depressionen und ihres allgemeinen Wohlbefindens erlebten.

Da sich die alltäglichen Interaktionen der Menschen immer mehr von der physischen in die virtuelle Welt verlagern, werden die Menschen immer abhängiger vom Internet. Daher stellt sich die Frage: Können die Menschen das Internet von den Bots zurückerobern?

Einige Technologieexperten halten das für möglich. Und es fängt damit an, dass man den Menschen hilft zu erkennen, womit sie sich beschäftigen.

„Es gibt einige Strategien, mit denen Nutzer Bots erkennen können“, erklärt Zachary Kann, Gründer von Smart Geek Home, gegenüber der Epoch Times.

Aufgrund seiner Erfahrung als Experte für Netzwerksicherheit sagte Kann, dass es Methoden gibt, mit denen ein Nutzer feststellen kann, ob er mit einer anderen Person interagiert.

Wie Cooper schlug er vor, Antwortmuster genau zu beobachten.

„Bots reagieren oft sofort und können eine sich wiederholende Sprache verwenden.

Herr Kann sagte auch, dass die Leute ihre Profile überprüfen sollten, da Bots oft generische oder unvollständige Online-Profile haben.

Er fügte hinzu, dass die Unfähigkeit, zwischen Bots und Menschen zu unterscheiden, zu Problemen bei der Genauigkeit der Forschung führen kann.

„Es kann zu verzerrten Datenanalysen führen, da die Interaktionen von Bots den Website-Traffic und die Engagement-Metriken aufblähen können.

Alle weiterführenden Links: Homepage / Social Media / Kaffee ausgeben / Produkte / Newsletter / Impressum
https://linktr.ee/blaupause.tv

Tags

No responses yet

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert