Meinung: KI sollte als normale Technologie betrachtet werden, nicht als Superintelligenz

In einem umfassenden Essay mit dem Titel „AI as Normal Technology“ argumentieren die Forscher Arvind Narayanan und Sayash Kapoor von der Princeton Universität, dass künstliche Intelligenz als normale Technologie verstanden werden sollte und nicht als potenzielle Superintelligenz. Die vom Knight First Amendment Institute der Columbia University veröffentlichte Arbeit präsentiert eine alternative Sichtweise zum Verständnis der Entwicklung und gesellschaftlichen Auswirkungen von KI. Die Autoren behaupten, dass KI die Gesellschaft zwar verändern wird, dies jedoch schrittweise über Jahrzehnte geschehen wird, ähnlich wie bei früheren Allzwecktechnologien wie Elektrizität und Internet.

Narayanan und Kapoor stellen sowohl utopische als auch dystopische Visionen von KI in Frage, die sie als hochgradig autonome, potenziell superintelligente Einheit behandeln. Stattdessen betrachten sie KI als ein Werkzeug, das Menschen kontrollieren können und sollten. Sie argumentieren, dass die Kontrolle von KI keine drastischen politischen Eingriffe oder technischen Durchbrüche erfordert und dass die Betrachtung von KI als menschenähnliche Intelligenz weder zutreffend noch nützlich für das Verständnis ihrer gesellschaftlichen Auswirkungen ist.

Der Essay unterscheidet zwischen KI-Methoden, Anwendungen und Einführung und argumentiert, dass diese in unterschiedlichen Zeiträumen stattfinden. Während die technischen Fortschritte bei KI-Methoden rasant waren, erfolgt die Verbreitung von KI-Anwendungen in der Gesellschaft viel langsamer, insbesondere in Bereichen mit hoher Bedeutung. Die Autoren verweisen auf Belege, dass die KI-Einführung in sicherheitskritischen Bereichen deutlich langsamer verläuft als populäre Darstellungen suggerieren.

„Die Verbreitung von KI ist inhärent durch die Geschwindigkeit begrenzt, mit der nicht nur Einzelpersonen, sondern auch Organisationen und Institutionen sich an die Technologie anpassen können“, schreiben die Forscher. Sie ziehen Parallelen zu früheren Allzwecktechnologien wie der Elektrifizierung, die Jahrzehnte brauchte, um sich in Bezug auf Produktivitätsvorteile vollständig zu materialisieren.

Das Papier stellt auch das Konzept der Superintelligenz in Frage und argumentiert, dass es auf fehlerhaften konzeptionellen Verständnissen von Intelligenz und Macht beruht. Die Autoren behaupten, dass Menschen schon immer Technologie genutzt haben, um ihre Fähigkeiten zu erweitern, und dass moderne Menschen mit Technologie im Vergleich zu vor-technologischen Menschen bereits „superintelligent“ sind.

In Bezug auf KI-Risiken analysieren Narayanan und Kapoor Bedenken hinsichtlich Unfällen, Wettrüsten, Missbrauch und Fehlausrichtung. Sie argumentieren, dass die Betrachtung von KI als normale Technologie zu grundlegend anderen Schlussfolgerungen über Risikominderung führt als die Betrachtung von KI als menschenähnlich. Sie schlagen beispielsweise vor, dass sich die primären Abwehrmaßnahmen gegen KI-Missbrauch auf nachgelagerte Anwendungen konzentrieren sollten, anstatt auf Modellausrichtung.

Für die Politik befürworten die Autoren einen resilienzbasierten Ansatz, der betont, jetzt Maßnahmen zu ergreifen, um die Fähigkeit der Gesellschaft zu verbessern, mit unerwarteten Entwicklungen in der Zukunft umzugehen. Sie argumentieren gegen Nichtverbreitungspolitiken, die den Zugang zu leistungsfähiger KI einschränken wollen, und suggerieren, dass diese nicht durchsetzbar sind und gefährliche einzelne Fehlerpunkte schaffen könnten.

Der Essay kommt zu dem Schluss, dass Fortschritte bei KI-Vorteilen nicht automatisch sind und durchdachte politische Eingriffe erfordern. Die Autoren empfehlen, dass Regierungen eine Rolle bei der Förderung der KI-Verbreitung spielen, indem sie in komplementäre Bereiche wie KI-Kompetenz, Arbeitskräftequalifizierung, Digitalisierung und offene Daten investieren.

Mehr zum Thema:

Bleib up-to-date: