Neuer Essay Link to heading

Auf meinem englischsprachigen Blog ist wieder ein neuer Essay erschienen, diesesmal zu den Themen KI-Agenten und automatisierter Entscheidungsfindung.

Zum Inhalt Link to heading

In den letzten Jahren gab es einen beunruhigenden Trend hin zur Normalisierung der automatisierten Entscheidungsfindung durch Large Language Models (LLM), unter anderem beim Entwurf von Gesetzen, dem Schreiben von Gerichtsurteilen und in der alltäglichen Praxis des Rechtsstaats.

Für Menschen handelnde KI-Agenten sollen uns in ein neues Zeitalter der Produktivität und der Bequemlichkeit führen. Die Eloquenz von KI-generierten Texten und das Narrativ der übermenschlichen Intelligenz laden uns ein diesen Systemen mehr zu vertrauen, als je einem Menschen oder Algorithmus zuvor.

Frank Herbert hat den Kern dieses Problems schon in Dune (1965) auf den Punkt gebracht:

Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.

Es ist schwierig herauszufinden, ob eine Maschine tatsächlich intelligent ist aufgrund von Problemen mit Konstruktvalidität, Plagiaten, Reproduzierbarkeit und Transferabilität in KI-Benchmarks. Die meisten Menschen werden die Nützlichkeit von KI-Tools entweder anhand ihrer gelebten Erfahrung bewerten oder Expert:innen vertrauen müssen.

Um dieses Problem zu verdeutlichen schlage ich das Gedankenexperiment der Intelligenten KI-Münze vor und bespreche vier Gegenargumente: die Beschränkung von KI-Agenten auf Entscheidungen mit geringem Wert, die Veröffentlichung des Quellcodes von KI-Agenten, die Einbindung von Menschen in Entscheidungsprozesse (human-in-the-loop) und die allgemeinen Grenzen des Vertrauens in menschliche Agenten.