Der Hype rund um ChatGPT zeigt eindrucksvoll, welches Potenzial in Large Language Models steckt. Ob als Copilot beim Programmieren, als "Rubber Duck" beim Brainstorming oder als Agent, der komplexe Aufgaben autonom erledigt – diese Modelle sind für ein breites Spektrum an Anwendungsfällen geeignet. Sie wecken die Hoffnung, unsere Gesellschaft und Wirtschaft disruptiv voranzubringen. Dabei werden die Karten neu gemischt: AI-Systeme wie ChatGPT helfen, komplexe Sachverhalte zu durchdringen oder Aufgaben präzise zu erledigen, die zuvor mit hohem Lernaufwand verbunden waren. LLMs befähigen uns, mehr und größere Aufgaben in kürzerer Zeit zu bewältigen.
Besonders faszinierend ist die rasante Entwicklung dieses Technologiefeldes. Noch Ende 2022 war ChatGPT 3.5 bei seiner Veröffentlichung nicht in der Lage, auf Wissen nach dem Knowledge-Cutoff zuzugreifen, und war grundsätzlich deutlich weniger leistungsfähig als GPT-4. Heute kann GPT-4 ohne Weiteres auf das Internet zugreifen und aktuelle Ereignisse abrufen. Gleichzeitig entstehen immer leistungsfähigere, kleinere Modelle, die künftig auch auf Low-End-Hardware ausgeführt werden können und AI damit noch zugänglicher machen.
Doch wo Licht ist, gibt es auch Schatten. Nicht nur wir werden durch LLMs produktiver, sondern auch Cyberkriminelle können ihre Tätigkeiten mit Hilfe von AI effizienter gestalten. Das Spektrum der missbräuchlichen Nutzung von LLMs ist nahezu so grenzenlos wie die eingangs beschriebenen legitimen Anwendungsfälle. Von qualitativ hochwertigen, personalisierten Phishing-Nachrichten über Voice-Cloning bis hin zu autonomen offensiven Hacking-Agenten – die möglichen Einsatzbereiche sind vielfältig. Grund genug, dieses Thema systematisch zu betrachten und die Frage zu klären wie - Wie nah steht der Cyberspace eigentlich vor der A(i)pocalypse. Genau das habe ich in meiner letzten Ausarbeitung getan, die im Anhang zu finden ist. Viel Spaß beim Lesen!