Die Begriffe «Künstliche Intelligenz» (KI) und «Robotik» sind seit Jahren immer wieder zu hören – und wenn man den Trend weiterverfolgt, wird sich dies in Zukunft wohl immer weiter akzentuieren. KI und Robotik sind daran, unseren Alltag zu verändern, auch wenn die Fortschritte nicht immer auf den ersten Blick sichtbar sind.
Aus diesem Grund zeigt Sony, das sich seit Jahren mit beiden Themen gleichermassen auseinandersetzt, am «Salone del Mobile» in Mailand seine Version der Zukunft von KI und Robotik. Die Ausstellung «Affinität in der Autonomie» soll vor allem die Beziehung zwischen Mensch und Roboter aufzeigen, und wie sie sich künftig entwickeln könnte.
Meiner Meinung nach ist dies gleichzeitig auch die schwierigste Hürde für uns Menschen: Zu akzeptieren, dass ein Roboter eine bestimmte Aufgabe schneller und besser erledigen kann als wir es je könnten. Dank dieser offensichtlichen Vorteile sollte er künftig einen Part in unserem Leben einnehmen – und wir vielleicht gar Emotionen zu dieser Automatik entwickeln?
Um mir ein Bild aus erster Hand zu machen, durfte ich auf Einladung von Sony hin diese Ausstellung vor Ort erleben.
In fünf Räumen diverse Grade von Roboter und KI erleben
Am Ausstellungsort angekommen, wirkt die ganze Installation auf den ersten Blick sehr farbig. Möglicherweise, um Emotionen zu wecken und um die Besucher in unbeschwerte Stimmung zu bringen. Die bunte Leichtigkeit sollte aber leider nicht von Dauer sein. Nach einer kurzen Einführung zur Technik durch Sony-Verantwortliche werden uns die einzelnen Sensoren gezeigt, die in dieser Ausstellung in den Exponaten zum Einsatz kommen und diese «intelligent» machen sollen. Die bekanntesten sind dabei der Kamera-Sensor einer Alpha 9-Kamera, ein Chip aus dem Sony Xperia 1-Smartphone und ein weiterer Chip, der aus dem Roboter-Hund «Aibo» stammt. Der vierte Sensor stammt aus dem Automobil-Bereich und war mir bisher unbekannt.
Nun geht auch schon der offizielle Rundgang los und wir befinden uns dazu in einem dunklen Raum. Plötzlich erscheint auf der Wand links von uns ein heller Punkt. Dieser teilt sich in mehrere Punkte auf, sobald wir anfangen, uns zu bewegen. Doch der Punkt folgt uns auf Schritt und Tritt. Mit dieser Demonstration soll durch Licht und Ton gezeigt werden, wie wir mit Roboter interagieren können. Denn neben unserer Sprache können Robotik-Sensoren ja auch unsere Bewegungen wahrnehmen.

Im zweiten Raum treffen wir auf einen Käfig und ein Lichtpendel, das uns wohl schon erwartet hat: Denn letzteres fängt an sich zu bewegen, sobald wir uns ihm nähern. Wie schon im vorherigen Raum, versuche ich mit meiner Hand die Aufmerksamkeit auf mich zu lenken, was sich aber als nicht ganz einfach erweist. Der Roboter macht, was er möchte und beweist damit seine Unabhängigkeit. Ob das gewollt ist?
Als hätte das Robo-Pendel seinen eigenen eigenen Willen, folgt es eine Zeitlang der Handbewegung einer Person, bis es sich offenbar gelangweilt wieder anders überlegt und danach unabhängig seine eigenen Kreise zieht.
Von unabhängig bis anschmiegsam
Der dritte Raum ist gefüllt mit einer Menge Bälle: Kleine und grosse. Sobald wir uns in ihren abgesperrten Bereich bewegen, reagieren sie unterschiedlich auf uns. Sie scheinen mit uns zu interagieren. Einige davon bewegen sich von uns weg, andere kommen auf uns zu. Die Idee dahinter – wie man uns erklärt: Jeder Ball ist mit den anderen vernetzt und weiss vom anderen, was er tut. Trotzdem scheint jeder eine eigene Persönlichkeit an den Tag zu legen.

Im vierten Raum befindet sich ein alter bekannter: Es ist Aibo, der kleine Roboter-Hund von Sony. Er ist wohl das direkte und gleichzeitig auch fassbarste Ergebnis aus all den vorhergegangenen Projekten. Mal interagiert er mit mir, mal lässt er mich aber auch links liegen, um sich anderen Dingen zuzuwenden. Besonders lustig ist dabei die Reaktion der Personen rundherum zu beobachten, sobald Aibo sie ignoriert. Einige zeigen sich beleidigt, andere finden es belustigend und versuchen aktiv, die Aufmerksamkeit des Roboter-Hundes wieder auf sich zu ziehen.

Im fünften und letzten Raum der Sony-Ausstellung erwarten uns wieder Roboter – diesmal allerdings in der Form von Würfeln. Diese suchen aktiv die Aufmerksamkeit der Besucher. Durch Kameras erkennen die Robo-Würfel den Eindringling und fahren schnurstracks auf ihn zu. Beim Besucher angekommen, öffnet der Roboter einen Deckel, gibt einen darunter liegenden Bildschirm frei und animiert uns nun darüber, an einer Umfrage teilzunehmen.
Fazit: Technologie und Gesellschaft müssen hier zusammenfinden
Ich möchte nicht behaupten, Roboter oder auch die AI dahinter seien komplett neu für mich, jedoch finde ich es immer wieder spannend, mit diesen Technologien zu interagieren. Jeder Roboter verhält sich doch sehr unterschiedlich und während wir derzeit so einen Roboter noch als Spielzeug ansehen, ist es faszinierend zu erkennen, wohin sich die Technik entwickelt und wie ein Roboter gar Emotionen in uns auszulösen vermag.
Oft frage ich mich, in welche Zukunft wir hier hinsteuern. Vor meinem geistigen Auge fühle ich mich jeweils an den Film «I, Robot» mit Will Smith erinnert, wenn es um die Thematik von klugen Robotern geht. Und persönlich freue ich mich auch auf eine solche Zukunft mit dienstbaren Robo-Gehilfen. Doch bin ich nach wie vor der Meinung, dass diese Zukunft noch einige Jahre technischer Entwicklung und zusätzlich viel gesellschaftlicher Akzeptanz benötigt. Die Ausstellung von Sony hier am «Salone del Mobile» zeigt aber relevante Schritte in diese Richtung auf und animiert gleichzeitig zum Nachdenken. Wie sehe ich Roboter – und wie sieht ein Roboter mich?
Wer die Austellung selber erleben möchte, kann diese vom 9. bis 14. April in Mailand besuchen.

