© Zukunftsinstitut
Wirtschaft
25.11.2024

„Systemisches Handeln wird eine der wichtig­sten Fähig­keiten der Zukunft sein“

Wie Technologie und Mensch immer enger miteinander ver­schmelzen und welche Chancen und Heraus­forderungen dies mit sich bringt, beschreibt Zukunftsforscher Stefan Tewes.

advantage: Was sind die drei wichtigsten KI-Trends, die sich aus ihrer Sicht für die nahe Zukunft abzeichnen?

Stefan Tewes: In der neuen Megatrendstudie „Die neue menschzentrierte Vernetzung“ haben wir die technologische Vernetzung in der modernen Gesellschaft und ihre Auswirkungen auf verschiedene Gesellschaftssysteme untersucht. Insgesamt haben wir 16 zentrale Trends identifiziert, um eine Orientierungshilfe für zukünftige Entwicklungen, insbesondere in Bezug auf die menschzentrierte Gestaltung technischer Innovationen zu geben. Wenn wir uns auf die künstliche Intelligenz mit einem Zeitfokus von ca. fünf Jahren konzentrieren, dann werden uns die Trend Human Centricity, Responsible AI und Intelligent Automation stark prägen.

Die Entwicklung von KI wird zunehmend darauf ausgerichtet, menschliche Bedürfnisse und Werte (Human Centricity) in den Mittelpunkt zu stellen. Dies geht über die Benutzerfreundlichkeit hinaus. Nicht die Frage, wie KI entwickelt wird, sondern was es bedeutet „Mensch zu sein“, ist hier die zentrale Frage. Ein Selbstzweck ist die Entwicklung der künstlichen Intelligenz nämlich nicht. Mit der wachsenden Bedeutung von KI wird auch der Ruf nach Transparenz, ethischen Standards und Fairness lauter. „Responsible AI“ betont die Notwendigkeit, dass KI-Systeme verantwortungsvoll entwickelt und eingesetzt werden. Diese Technologien müssen sicherstellen, dass sie keine Voreingenommenheiten aufweisen (Bias-Problematik) und dass die gesellschaftlichen Auswirkungen berücksichtigt werden. Ansonsten führt eine zunehmende Verhärtung innerhalb der eigenen Bubble zu einem fortwährenden gesellschaftlichen Bruch.

Als letzten Trend möchte ich die „Intelligent Automation“ aufführen. Dieser beschreibt die Automatisierung von Prozessen mithilfe von KI und maschinellem Lernen, um Entscheidungen und Abläufe effizienter zu gestalten. Dieser Trend ist besonders relevant, da KI zunehmend in komplexen Arbeitsumgebungen eingesetzt wird, um repetitive Aufgaben zu automatisieren und dabei Entscheidungen in Echtzeit zu treffen. Durch die Kombination von KI und Automatisierung können Unternehmen Kosten senken, die Produktivität steigern und menschliche Ressourcen für strategische Aufgaben freisetzen. Es wird Zeit, dass wir die Daten, auf denen wir sitzen, endlich auch nutzen.

Wo liegen aus Ihrer Sicht die ethischen Risiken im Umgang mit (generativer) KI wie ChatGPT und (wie) können Unternehmen diesen aktiv entgegentreten?

Der verantwortungsvolle Umgang mit generativer KI birgt verschiedene ethische Risiken, die Unternehmen aktiv angehen müssen. Ein zentrales Problem ist das Bias-Problem in den verwendeten Daten. KI-Modelle lernen aus großen Datensätzen, die häufig bestehende gesellschaftliche Vorurteile enthalten. Diese können unreflektiert in die KI übernommen werden, was zu diskriminierenden Entscheidungen führt. Um dies zu verhindern, ist es essenziell, dass Unternehmen ihre Datenquellen sorgfältig auswählen, diversifizieren und regelmäßig auf Verzerrungen überprüfen. Durch kontinuierliche Anpassungen und Kontrollen kann sichergestellt werden, dass die KI fairer und ausgewogener agiert.

Ein weiteres ethisches Risiko betrifft den Datenschutz. Generative KI-Systeme verarbeiten riesige Datenmengen, die hinsichtlich Urheberrecht und Privatsphäre kritisch zu beleuchten sind. Unternehmen müssen klare Datenschutzrichtlinien implementieren und sicherstellen, dass ihre KI-Systeme nur die notwendigsten Daten verarbeiten und diese sicher speichern. Die Gesetzeslage ist in diesem Kontext ebenfalls noch optimierungswürdig. Gleichzeitig sollte die Transparenz im Umgang mit KI gewährleistet sein. Oft ist es schwierig, die Entscheidungen von KI-Systemen nachzuvollziehen, da diese auf undurchsichtigen Algorithmen basieren. Unternehmen sollten also sicherstellen, dass ihre KI-Modelle erklärbar und nachvollziehbar sind.

Ethische Richtlinien spielen ebenfalls eine entscheidende Rolle. Unternehmen sollten umfassende ethische Leitlinien und Governance-Strukturen etablieren, um den verantwortungsvollen Einsatz von KI zu steuern. Dies erfordert die Einrichtung multidisziplinärer Teams, die sich mit den ethischen Fragen der KI-Entwicklung befassen und sicherstellen, dass gesetzliche und moralische Standards gewahrt bleiben (wie z. B. die Einhaltung des Grundgesetzes). Gleichzeitig ist es wichtig, die Mitarbeitenden kontinuierlich zu schulen, um ihr Verständnis für die Herausforderungen und Chancen im Umgang mit KI zu stärken. Vergessen wir indes nicht, dass wir in Europa einen sehr hohen Standard haben. Wenn der Fokus ausschließlich auf der Regulierung liegt, werden andere Nationen den Nutzenvorteil auszuschöpfen wissen.

„Künstliche Intelligenz wird keine Jobs vernichten, sondern Berufs­bilder trans­formieren. Technischer Fort­schritt hat dies schon immer gemacht, nur jetzt in einer schnelleren Abfolge.“

Stefan Tewes
Wie kann ein verantwortungsvoller Umgang mit KI gelingen?

Ein verantwortungsvoller Umgang mit KI erfordert eine ganzheitliche und menschzentrierte Herangehensweise, die ethische Grundsätze und gesellschaftliche Werte in den Mittelpunkt stellt – und gleichzeitig die Möglichkeiten der Nutzengenerierung nicht zu sehr einschränkt. Es geht also darum in der Entwicklung ein Zusammenspiel aus funktionalem und effizientem Einsatz als auch sozial gerechter, inklusiver und transparenter Fundierung zu finden. Dieses Zusammenspiel ist entscheidend, um die potenziellen Vorteile von KI zu maximieren und gleichzeitig die Risiken, wie etwa Diskriminierung, zu minimieren.

Ein zentraler Aspekt ist dabei die "Human Centricity", also die Ausrichtung der Technologie an den Werten und Bedürfnissen der Nutzer. Dies bedeutet, dass Menschen aktiv in den Entwicklungsprozess einbezogen werden, um sicherzustellen, dass die Technologie ihren Anforderungen entspricht. Weiterhin spielen ethische Rahmenbedingungen eine entscheidende Rolle im verantwortungsvollen Umgang mit KI. Dazu gehört auch, dass offene Diskurse über die ethischen Implikationen von KI geführt werden und Regulierungen entwickelt werden, die Missbrauch und unethische Anwendungen verhindern.

Subsummierend ist eine solche Anwendung jedoch bis dato eher Wunsch als Wirklichkeit. Zu erkennen ist, dass sich Unternehmen zunehmend aus den gesetzlichen Zwängen Europas befreien und ihre Datenanalysen in andere Länder verlagern. Das Spiel aus Über- und Unterregulierung wird uns in Europa also auch weiterhin beschäftigen.

Gibt es aus Ihrer Sicht auch Branchen bzw. Geschäftsbereiche, wo der Einsatz von (generativer) KI wie ChatGPT nicht bzw. wenig sinnvoll ist?

Wandel ist ein langsamer Prozess, besonders in Europa, wo er oft durch Regulierung gehemmt wird. Im Bildungssystem stellt sich die Frage, ob das reine Reproduzieren von Inhalten (in Klausuren) das Bildungsziel ist oder die ganzheitliche Entwicklung von Menschen. Sollten wir an ersterem festhalten, könnten Sprachmodelle wie ChatGPT die klassischen Tätigkeiten von Lehrenden oder Dozierenden gefährden. Allerdings bieten digitale Tools auch die Chance, den Menschen stärker in den Mittelpunkt zu rücken, indem sie Routineaufgaben übernehmen und mehr Zeit für individuelle Betreuung schaffen.

Generative KI hat also das Potenzial, in vielen Berufen, die mit Menschen arbeiten, eine Bereicherung zu sein, etwa im Bildungswesen oder der Sozialarbeit. Hier kann sie repetitive Aufgaben erleichtern und den Fokus auf das Zwischenmenschliche verstärken. Solange die emotionalen und sozialen Aspekte dieser Berufe im Vordergrund stehen, sehe ich keine Bedrohung durch KI, sondern vielmehr die Chance, Jobprofile weiterzuentwickeln. Wir sollten wirklich aufhören, technologische Entwicklungen als ultimative Bedrohungen anzusehen und viel eher die Chancen betrachten.

Künstliche Intelligenz wird also nicht die Jobs vernichten, sondern Berufsbilder transformieren. Technischer Fortschritt hat dies schon immer gemacht, nur jetzt in einer schnelleren Abfolge. Beispiele für diese Symbiose sind: In der Medizin, speziell in Bereichen wie der Chirurgie oder der Diagnose von Krankheiten, bleibt menschliche Expertise, Erfahrung und Empathie unverzichtbar. Wenngleich bei höherer Datenmenge die Muster zunehmend durch KI erkannt werden können. Auch in der Rechtsberatung, wo tiefgreifende moralische und ethische Entscheidungen gefordert sind, kann KI unterstützen, aber nicht die menschliche Urteilsfähigkeit ersetzen. Kreative Berufe, die auf Originalität und Innovation beruhen, wie Kunst und Literatur, könnten ebenfalls durch KI ergänzt, aber nicht vollständig ersetzt werden. Selbiges gilt für die Betreuung von Kindern, und/oder in Berufen, in denen menschliche Interaktion und Empathie entscheidend sind, wie in der Psychologie. KI kann hier Routineaufgaben abnehmen, aber authentische menschliche Interaktionen und tiefes Verständnis nicht vollständig ersetzen.

Denken wir immer daran, dass ein Bias-Problem bei KI entsteht, weil KI-Modelle auf großen Datensätzen trainiert werden, die oft gesellschaftliche Vorurteile oder Ungleichheiten widerspiegeln. Wenn die zugrunde liegenden Daten Verzerrungen aufweisen, kann die KI diese übernehmen und verstärken, was zu diskriminierenden Ergebnissen führt. Es gibt also auch in Zeiten von KI weiterhin keine Objektivität.

„Der verantwortungsvolle Umgang mit generativer KI benötigt eine Symbiose aus ethischen Rahmen­bedingungen und nutzen­stiftender Anwendung.“

Stefan Tewes
Welche Bedeutung kommt dem Faktor Mensch bzw. unseren analogen Grundfertigkeiten wie Schreiben, Lesen und Rechnen in Zukunft zu (Stichwort: Bildungssystem – Schulen – Einsatz von „Hausverstand“)

Fundamentale Kompetenzen wie Schreiben, Lesen und Rechnen bleiben die Basis der Bildung. KI wird Aufgaben erfüllen, uns aber nicht das Denken abnehmen. Die Grundkompetenzen sind notwendig, um kritisches Denken und ein tiefes Verständnis von Inhalten zu entwickeln. Jedoch werden auch weitere Kompetenzen relevant, da der menschliche Hausverstand in der heutigen Zeit an seine Grenzen stößt. Aufgrund der Vielzahl an Veränderungen sowie deren Interdependenzen sehen wir die Zusammenhänge und Hebel nicht mehr. Diese Tendenz ist auch in den sozialen Medien erkennbar. Wahllose Behauptungen kursieren durch das Netz, ohne dass kritisches Denken oder Problemlösungsfähigkeit vorhanden ist. Wir benötigen also zur Erstellung von Ergebnissen (Datenanalysen) Hilfsmittel, die Interpretation hingegen müssen wir selbst gestalten. D. h. systemisches Denken mit anschließendem Handeln wird eine der wichtigsten Fähigkeiten der Zukunft sein.

Zu fördern sind darüber hinaus Fähigkeiten wie Kreativität, emotionale Intelligenz und Empathie, da Menschen sich auch in Zukunft begegnen, spüren und miteinander Zeit teilen möchten. Hier kann KI kein Ersatz darstellen. Gleichzeitig werden wir den verantwortungsbewussten Umgang mit künstlicher Intelligenz (AI Literacy) lernen und auch den Mut in uns haben müssen, Innovationen und Fortschritt zu gestalten. Ebenfalls ist die Fähigkeit zur Zusammenarbeit essenziell.

Unter dem Strich bleibt, dass das aktuelle Bildungssystem eine umfängliche Transformation benötigt, da wir immer noch an den Kompetenzen aus einem anderen Jahrtausend festhalten. Das Problem wird jedoch sein, dass wir keine Lehrkräfte haben, die diese Kompetenzen flächendeckend unterrichten können; so wird die Kompetenzvermittlung immer mehr zur Aufgabe des Elternhauses, welches wiederum zu gesellschaftlichen Problemen führen wird.

WISSENSWERT

Prof. Dr. Stefan Tewes ist Scientific Director am Zukunftsinstitut in Frankfurt und Wien.

In der neuen Megatrendstudie „Die neue menschzentrierte Vernetzung“ beleuchtet das Zukunftsinstitut 16 Trends für das Leben und Wirtschaften in der digital verbundenen Welt. Sie zeigt auf, wie Technologie und der Mensch mit seinen Bedürfnissen immer enger miteinander verschmelzen und welche Chancen und Herausforderungen dies mit sich bringt.

Schlagwörter