Passend zur aktuellen Semesterfrage "Wie leben wir in der digitalen Zukunft?" dreht sich die Forschung des Philosophen Mark Coeckelbergh um die Ursachen und Folgen der Digitalisierung. Im Gespräch mit uni:view schildert er seine Sichtweise auf die steigende Entfremdung zwischen Menschen und ihrer Umgebung.
uni:view: In Ihrer Forschungstätigkeit konzentrieren Sie sich auf Technikphilosophie, das Verständnis und die Bewertung neuer Entwicklungen in den Feldern der Robotik und der künstlichen Intelligenz. Wie ist der aktuelle Entwicklungsstand?
Mark Coeckelbergh: Es gibt eine Reihe von Entwicklungen, wie beispielsweise der Einsatz von Robotern im Gesundheitswesen oder selbstfahrende Autos. Was die sogenannten "Smart Technologies" anbelangt, ist es zunehmend so, dass Algorithmen laufend Entscheidungen für uns treffen, während wir das Internet - insbesondere die sozialen Medien - nutzen. Ich denke, dass die anstehenden Entwicklungen in der Automatisierung unseren Alltag sehr viel früher und intensiver beeinflussen werden, als im Fall der künstlichen Intelligenz. Der technische Fortschritt geht doch nicht derart schnell, wie es die Leute teilweise glauben. Jedoch wird unser Leben bereits heute durch smarte Technologien beeinflusst, und hier sehe ich auch den größten technischen Fortschritt unserer Zeit. In diesem Sinne ist "die Maschine" bereits da.
Jedes Semester stellt die Universität Wien ihren WissenschafterInnen eine Frage zu einem Thema, das die Gesellschaft aktuell bewegt. In’s und Gastbeiträgen liefern die ForscherInnen vielfältige Blickwinkel und Lösungsvorschläge aus ihrem jeweiligen Fachbereich. Zur Semesterfrage 2016/17
uni:view: Smarte Technologien wurden erfunden, um unser Leben einfacher und angenehmer zu gestalten. Gleichzeitig scheinen die Menschen bestimmte Fähigkeiten zu verlernen - etwa das Kartenlesen: Das macht jetzt das Navi für uns. Ist diese wachsende Abhängigkeit von technologischen Hilfsmitteln ein Problem?
Coeckelbergh: Es stimmt, wir verlernen bestimmte Fähigkeiten. Das muss jedoch nicht unbedingt an sich ein Problem sein: Beispielsweise bin ich nicht dazu imstande, ein Pferd zu reiten oder eine Kutsche zu lenken und bin dadurch in meinem Alltag nicht eingeschränkt. Ein Problem, das ich allerdings sehe, ist das Verkümmern unserer Beziehungen zur Umgebung, zu Mitmenschen und der natürlichen Welt, das durch die steigende Anzahl der Maschinen, die zwischen uns und der Umwelt geschaltet sind, droht. Das könnte gefährlich werden, man denke z.B. an selbstfahrende Autos: FußgängerInnen oder RadfahrerInnen nehmen die LenkerInnen mitunter nicht mehr als ein soziales Lebewesen wahr, weil der Lenker ein Algorithmus ist. Im Hinblick auf das angesprochene Navigationssystem: Wir folgen den Anweisungen und sind so sehr damit beschäftigt, von A nach B zu gelangen, dass wir möglicherweise nicht mitbekommen, was sich am Straßenrand abspielt. Je mehr Geräte und die damit einhergehenden Distanzen sich zwischen uns selbst und unserer Umgebung befinden, desto weniger direkte Verbindungen fühlen wir. Also übersehen wir möglicherweise einen Menschen, der unsere Aufmerksamkeit benötigt.
uni:view: Wie können wir diese Art der Entfremdung von unserer Umgebung vermeiden?
Coeckelbergh: Ich denke nicht, dass wir in alte Zeiten zurückkehren können oder wollen. Aber vielleicht ist es möglich, dass wir smarte Technologien erschaffen, die uns dazu befähigen, uns mehr auf unsere Umwelt einzulassen. Die Lösung liegt nicht darin, bestimmte Technologien zu verbieten, sondern vielmehr in ihrer Veränderung bzw. Regulierung, damit sie die Lebensqualität steigern und zwischenmenschliche Beziehungen verbessern. Ich denke, das ist möglich. Wir brauchen nicht noch mehr Menschen, die sich über Technik beschweren, sondern mehr BürgerInnen und Intellektuelle, die proaktiv zu einer ethischeren Entwicklung von Technologien beitragen.
Natürlich ist es notwendig und unerlässlich, eventuelle Risiken zu erkennen und über ethische Probleme nachzudenken. Ich persönlich möchte das Augenmerk ebenfalls auf die politischen und gesellschaftlichen Aspekte legen. Bis jetzt verursachte der industrielle technische Fortschritt und die Automationstechnologie den Wegfall von Arbeitsplätzen in Fabriken. Was passiert als nächstes, sobald wir beginnen, Dienstleistungen zu automatisieren, sogar in Berufsfeldern wie Journalismus oder Recht? Werden die betroffenen Menschen ihre Arbeit verlieren? Werden neue Arbeitsplätze geschaffen werden? Oder werden wir neue Wege für die Zusammenarbeit von Mensch und Maschine finden?
uni:view: Verlust der Arbeit - das klingt nach einer "Machtübernahme der Maschinen" ?
Coeckelbergh: Sie sollen es nicht und sie können es meiner Meinung auch nicht. Denn Menschen verfügen über ein ethisches Urteilsvermögen und nutzen ihre Emotionen. Wir berücksichtigen Situationen und passen uns daran an, finden kreative Lösungen. Das kann eine Maschine niemals tun. Abgesehen davon ist es gefährlich, wenn gewisse Entwickler von Technologien uns gegenüber den Anschein erwecken, dass eine Maschine zu allem fähig sei. Meiner Meinung nach wird der Mensch immer einen Platz auf der Welt haben.
uni:view: Jedoch einen anderen Platz als heute?
Coeckelbergh: Wir sollten nicht ständig denken, dass sich alles um Austausch dreht. In den meisten Fällen arbeiten Mensch und Maschine zusammen. Ich nutze meinen Computer und mein Telefon um bestimmte Dinge zu erledigen - man könnte sagen: Wir arbeiten zusammen. Es ist nicht wahr, dass die Roboter vor der Tür stehen, um die Macht zu übernehmen. Für mich stellt sich eher die Frage nach der Art des Umgangs; darin liegt die Herausforderung: zu lernen, wie man mit der Technologie zusammenarbeitet, damit sich dadurch die Lebensqualität, die Qualität der zwischenmenschlichen Beziehungen und die soziale Gerechtigkeit im Generellen verbessern. In philosophischer Hinsicht ist das besonders interessant, zumal diese Themen wichtige weitere Fragen aufwerfen. Etwa: Was ist eine gute Gesundheitsversorgung? Was macht gute Bildung aus? Worin verbirgt sich der Faktor Mensch in all diesen Fragen?
Das von der europäischen Union finanzierte Projekt DREAM entwickelt Roboter, die in der Therapie von Kindern eingesetzt werden, welche unter der Autismus-Spektrum-Störung leiden. Die Roboter sind nicht ferngesteuert, sondern autonom: sie können mit dem Kind interagieren und das Verhalten des Kindes einschätzen; währenddessen beobachten TherapeutInnen das Geschehen. Es handelt sich dabei um ein technisches Projekt, jedoch ist die ethische Erforschung unter der Leitung von Mark Coeckelbergh Teil des Projekts, um sicherzustellen, dass die Entwicklung der Roboter sowie der Therapie nach ethischen Maßstäben erfolgt.
uni:view: Die medizinische Versorgung in Japan unterscheidet sich bereits relativ von der hiesigen. Roboter sind in Japan täglich im Einsatz. Wird dort ebenfalls eine Debatte über die Entfremdung zwischenmenschlicher Beziehungen geführt?
Coeckelbergh: Die Menschen in Japan haben weniger Probleme damit, diese Maschinen zu akzeptieren. Und zwar deshalb, weil es traditionell gesehen kein derartiges Problem darstellt, wenn Objekte eine wichtige Rolle spielen - dabei denke ich hauptsächlich an den Shintoismus. Im Westen folgen wir der Vorstellung, dass Subjekte und Objekte von Grund auf verschieden sind. Als eine Person aus dem westlichen Kulturkreis sehe ich das zum Teil auch so, jedoch ist es interessant, andere Weltanschauungen zu erkunden. Ein weiterer Grund für die große Verbreitung von Arbeitsrobotern lässt sich scheinbar darauf zurückführen, dass die JapanerInnen nicht möchten, dass GastarbeiterInnen die Jobs übernehmen. Deshalb nutzen sie Roboter. Wenn das wahr ist, zeigt mir das wiederum, dass Fragen der Technologie immer in direkter Verbindung zu gesellschaftlichen Fragen stehen. Technologie ist keineswegs neutral, sie ist stets mit politischen und gesellschaftlichen Inhalten verwoben.
uni:view: Kommen wir zum Thema künstliche Intelligenz. Gefühle und Empathie sind sehr menschliche Fähigkeiten. Denken Sie, dass ein Algorithmus eines Tages ebenfalls dieser Fähigkeiten mächtig wird?
Coeckelbergh: Wenn man sich vor Augen führt, wie Empathie und Gefühle bei Menschen funktionieren, hängt viel damit zusammen, dass wir verkörpert sind. Der Körper macht uns verwundbar und wir erleben die Möglichkeit, zu Schaden zu kommen, kennen das Risiko. Einer künstlichen Intelligenz, die etwa auf einem Computer läuft, fehlt diese Verkörperung und die Verwundbarkeit, die damit einhergeht. In gewisser Weise steht für eine Maschine nichts auf dem Spiel, sie kann nicht verlieren, sie kann nicht verletzt werden und deshalb denke ich, dass es gefährlich ist, eine Maschine mit zu vielen Entscheidungen zu betrauen, weil dabei Menschen zu Schaden kommen können.
Q&A mit Mark Coeckelbergh:
Am 10. und 18. Oktober wird Mark Coeckelbergh auf "derStandard.at/Semesterfrage" erklären, warum es eine der derzeit größten Herausforderungen ist, Technologien, die Entscheidungen für Millionen von Menschen treffen, so in den Griff zu bekommen, dass Menschwürde, Lebensqualität und soziale Gerechtigkeit erhalten bleiben. In einem Kommentar sowie einem Q&A-Artikel stellt er sich den Fragen der Community. Diskutieren Sie mit!
uni:view: Der Philosoph Nick Bostrom von der University of Oxford vertritt die Meinung, dass künstliche Intelligenz intelligenter als die Menschheit werden wird und die Menschheit letztendlich zerstören wird. Was ist ihr Standpunkt zu dieser Theorie?
Coeckelbergh: Es ist wahr, dass Maschinen die Menschheit bereits überholt haben, was das Spielen von Schach oder Go anbelangt. Das ist etwas, womit wir leben müssen. Jedoch denke ich, dass Maschinen in der Zukunft weiterhin nicht in der Lage dazu sein werden, andere Ausprägungen der Intelligenz wie etwa Emotionen oder Improvisation zu beherrschen. Nick Bostroms Konzept wird Singularität genannt. Das bedeutet, dass die Verfechter dieser Theorie an einen Wendepunkt in der Zukunft glauben, an dem sich schlagartig alles ändert. Meiner Meinung nach ist Technologie nicht derartig spektakulär - es wird keinen quasi-religiösen Moment geben, an dem alles auf den Kopf gestellt wird und die Maschinen die Macht übernehmen.
Die wirklich gefährlichen Entwicklungen sind für mich die unsichtbaren, langsamen Veränderungen, welche uns nach geraumer Zeit nachhaltig verändern, ohne dass wir etwas davon merken. Ich befürchte, dass wir auf gewisse Art und Weise blind in die Zukunft wandeln ohne die Veränderungen der Technologien zu bemerken, wie einerseits immer intelligenter werdende Algorithmen, aber auch Veränderungen, die dadurch mit uns Menschen geschehen. Ich nehme an, dass es sich um graduelle Veränderungen handelt, allerdings sehr wohl um tiefgreifende Veränderungen.
uni:view: Vielen Dank für das Gespräch! (td)
Mehr über Mark Coeckelbergh:
Seit Dezember 2015 ist Mark Coeckelbergh Professor der Philosophie am Department für Philosophie der Universität Wien. In seiner Forschung befasst er sich mit der Philosophie der Technologie und der Medien, insbesondere mit dem Verständnis und der Bewertung neuer Entwicklungen im Bereich der Robotik, künstlicher Intelligenz und (anderer) Informationsund Kommunikationstechnologien. Der 1975 in Leuven, Belgien, geborene Coeckelbergh begann seine akademische Laufbahn in seiner Heimatstadt mit dem Studium der Philosophie und der Politikwissenschaften, die er mit Aufenthalten an Universitäten in den Niederlanden und Großbritannien fortsetze. Neben seiner Tätigkeit in Forschung und Lehre ist Coeckelbergh in einer Reihe von wissenschaftlichen Projekten tätig, die sich mit der Entwicklung von Robotern nach ethischen Maßstäben auseinandersetzen, wie etwa das EU-finanzierte Projekt DREAM2020.