KI-Tool
ChatGPT: Europol warnt vor Phishing-Missbrauch
Europol warnt vor dem Missbrauch bekannter KI-Tools wie ChatGPT, welche für Phishingversuche missbraucht werden können. Realistische Texte seien künftig einfacher zu erstellen.

Die europäische Polizeibehörde Europol warnt in einem Bericht vor dem kriminellen Potenzial, das in LLMs (Large Language Models) wie ChatGPT schlumnmere. So könne das immer beliebter und bekannter werdende KI-Tool auch für Betrug, Falschinformationen und Cyberkriminalität genutzt werden, wie Europol nach einer Untersuchung von ChatGPT feststellt.
Der Text-Generator von ChatGPT berge durch seine Möglichkeit, äußerst realistische Texte zu schaffen, großes Potenzial für einen Missbrauch durch Kriminelle, wie Europol im Bericht verlauten lässt. So könne ChatGPT den Sprachstil einzelner Personen oder Organisationen realitätsnah nachahmen, was wiederum von Angreifern genutzt werden kann, um Opfer zu täuschen und deren Vertrauen zu gewinnen.
Damit stelle ChatGPT ein einfach zu bediendendes Werkzeug dar, um beispielsweise Phishing-Attacken auf großer Skala durchzuführen. Auch das Erstellen von Malware sei mit ChatGPT denkbar, selbst wenn die Angreifer über wenig technisches Wissen verfügen: Das KI-Tool könne auf Anfrage Code in verschiedenen Programmiersprachen erstellen, ohne dass viel Hintergrundwissen benötigt werde. Allerdings ist unklar, ob dieser auch fehlerfrei funktionere, wenngleich ChatGPT weiterhin enorme Fortschritte macht.
Der Europol-Bericht wurde eigenen Angaben zufolge aufgrund der wachsenden Bedeutung von Künstlicher Intelligenz wie ChatGPT im Mainstream in Auftrag gegeben. So beschäftige sich die Polizeibehörde demzufolge oft mit der Analyse neuer Technologien und müsse mit diesen Schritt halten können, um den Missbrauch mittels dieser einzudämmen.
Weiter zur Startseite