text

Posts tagged Künstliche Intelligenz
KI und die falsche Frage

Wie lange wird es wohl noch dauern, bis Maschinen uns Menschen in allen Aspekten überlegen sind? Wann wird die erste Künstliche Intelligenz ein Start-Up gründen und auf Basis ihrer eigenen innovativen Ideen ein Milliardenunternehmen aufbauen?

Für Claude Shannon – den Begründer der Informationstheorie – war die Antwort auf diese Frage schon vor einigen Jahrzehnten klar.

„I think that creative stuff is still a long ways off. But in the meantime it can be a boom to humanity. And I´d like to see that happen as soon as possible.” – Claude Shannon.

Read More
Vergessliche KI-Systeme

In den letzten Jahren gab es auf dem Gebiet der Künstlichen Intelligenz einige herausragende Durchbrüche. In vielen Fällen beziehen sich diese Durchbrüche aber auf einzelne Aufgaben. KI-Systeme werden also immer besser darin, spezifische Aufgaben möglichst optimal durchzuführen.

In Bezug auf das Erinnerungsvermögen sind KI-Systeme der tierischen Intelligenz aber oft noch weit unterlegen. Wenn ein KI-System zuerst die Aufgabe A und dann die Aufgabe B lernt, kommt es bei vielen Systemen zu katastrophalem Vergessen. Die Modelle stellen sich also so genau auf die neue Aufgabe B ein, dass sie die alte Aufgabe A nicht mehr durchführen können.

Read More
Überdiagnosebias - der Diagnosehype

Früherkennung ist nicht immer zum Vorteil des Patienten. Das dürfte spätestens nach meinem Artikel zum Vorlaufzeitbias klar sein. Neben den möglichen negativen Effekten für den Patienten selbst ist auch die Täuschung der Gesamtbevölkerung nicht zu vernachlässigen.

So spricht man von einer höheren Überlebensrate, obwohl schlussendlich gleich viele Menschen sterben.

Genau diese beiden Effekte finden sich auch beim Überdiagnosebias wieder.

Read More
Mittelfristige Künstliche Intelligenz

In einigen Jahrzehnten werden wir es womöglich mit einer Künstlichen Intelligenz zu tun haben, die uns Menschen weit überlegen ist.

Für manche KI-Forscher ist diese Möglichkeit die zentrale Problematik unserer Zeit. Wie können wir eine bösartige KI verhindern? Wie können wir verhindern, dass es zu einer Singularität mit unerwünschten Konsequenzen kommt?

Andere Forscher halten diese Bedenken für vollkommen übertrieben. Ihre These: Nur weil ein Problem in der Zukunft möglicherweise auftreten könnte, sollten wir nicht zu viel Zeit darin investieren. Oder, wie Andrew Ng es formulierte: „Ich mache mir auch keine Sorgen über die Überbevölkerung des Mars.“

Read More
Raketenbau und Künstliche Intelligenz

Raketenwissenschaft ist nicht umsonst eine Raketenwissenschaft. Viel komplizierter als die Raketenwissenschaft selbst ist aber der tatsächliche Bau von Raketen.

Elon Musk vergleicht die Konstruktion von Weltraumfahrzeugen mit dem Schreiben einer enorm komplexen Software. Nur kann man die Software in ihrer Gesamtheit nie testen und wenn man sie zum ersten Mal testet, darf sie keine Fehler mehr haben.

Doch jeder der schon einmal ein Stück Software programmiert hat, weiß: Eine Software zu entwickeln, die man nie testen darf und die dennoch von Beginn an ohne Bugs läuft, ist ein Ding der Unmöglichkeit.

Read More
KI-Nanny & Prävention

Technologische Entwicklungen sind in vielen Fällen ein Segen für die Menschheit – sie bescheren uns Wohlstand, verlängern unsere Lebensdauer oder machen die Zukunft spannend. Allerdings reicht ein Blick auf Atombomben und Waffensysteme, um die Schattenseiten von Technologie zu erblicken.

Bisher hat die Menschheit noch alle technologischen Entwicklungen überlebt. Je komplexer die Systeme allerdings werden, desto höher auch die Chance einer negativen Überraschung, die zur Extinktion der Menschheit führt.

Besonders brisant in diesem Zusammenhang ist die Künstliche Intelligenz.

Read More
Matrix & Sicherheit Künstlicher Intelligenz

Nimmst du die rote Pille, um die Wahrheit zu erfahren? Oder wählst du die blaue Pille und verharrst in deiner fiktiven Realität?

Die meisten von uns würden ganz instinktiv die rote Pille nehmen. Niemand will in einer fiktiven Welt leben - wir wollen die Realität. Genau daraus ergibt sich die Faszination von Filmen wie „The Matrix“.

Die Grundannahme ist dabei immer die Gleiche: Es gibt eine Künstliche Intelligenz, die den Menschen weit überlegen ist. Um die Menschen zu kontrollieren, schließt die KI unsere Gehirne an einen Computer an. Wir leben fortan in einer simulierten Welt, aber merken es nicht. Währenddessen kann die KI in der realen Welt tun und lassen was sie will. Soweit die verbreiteten Science-Fiction-Theorien.

Read More
Offenheit und Künstliche Intelligenz

“I think the best defense against the misuse of AI is to empower as many people as possible to have AI. If everyone has AI powers, then there’s not any one person or a small set of individuals who can have AI superpower.” – Elon Musk in einem Interview mit Steven Levy.

Elon Musk hält Offenheit für einen essentiellen Aspekt bei der Entwicklung Künstlicher Intelligenz. Und er ist damit nicht allein, denn seine Grundidee ist einfach und leuchtet ein: Wenn Künstliche Intelligenz ein Level erreicht, das die menschliche Intelligenz weit übertrifft, darf es kein Unternehmen, keinen Staat und keine Einzelperson geben, die diese Technologie allein kontrolliert. Indem man fordert, dass KI-Entwickler auf der ganzen Welt ihre technologischen Entwicklungen offenlegen, kann man verhindern, dass ein überlegenes Monopol entsteht.

Das Problem ist gelöst.

Read More
Erweitertes Denken & Bewusstsein

Wir rechnen mit Stift und Papier, machen Skizzen, erstellen Diagramme. Wir tun all das, um die Dinge besser zu verstehen.

In einer Studie aus dem Jahr 1994 hat man festgestellt, dass es circa eine Sekunde dauert, um ein einfaches geometrisches Objekt im eigenen Kopf um 90 Grad zu drehen. Mit einem Computer gelang dieselbe Drehung in etwa 300 Millisekunden – weniger als einem Drittel der Zeit.

Ähnlich ist die Situation bei den Smartphones. Gerade wenn es um Faktenwissen geht, greift man eher zum Smartphone, als lange das eigene Gedächtnis zu durchforsten.

Damit übernehmen aber das Handy, der Computer oder auch Stift und Papier eine Funktion, die sonst unser Gehirn ausführen würde. Diese Objekte werden zum Bestandteil unseres Denkens – ein Bestandteil genau wie das Gehirn selbst.

Read More
Formen der „Labilen Welt“

Es gibt verschiedene Arten von schwarzen Kugeln, die unter aktuellen Umständen das Ende der Menschheit bedeuten würden. Nick Bostrom spricht in seinem Paper „The vulnerable world hypothesis.“ von vier Formen derartiger Kugeln.

Typ 1 wurde mit dem Gedankenspiel der Atombomben bereits illustriert. Damit ist eine Technologie gemeint, die ein enormes destruktives Potential hat und gleichzeitig einfach zu konstruieren ist. Wenn also eine Atombombe von jedem Physikstudenten gebaut werden könnte, hätten wir es mit einer schwarzen Kugel von Typ 1 zu tun.

Dabei gibt es einen inversen Zusammenhang zwischen der Einfachheit dieser Technologie und ihrer Wirkung. Eine Technologie, die so einfach ist, dass jeder Krimineller sie verwenden kann, stellt auch bei einem moderaten Level an Destruktionspotential eine schwarze Kugel dar. Denn selbst wenn diese Technologie bei ihrer Anwendung nur eine einzige Stadt zerstören kann, werden sich genügend Anwender finden, um die meisten Städte der Erde zu vernichten.

Read More
Hypothese der „Labilen Welt“

Eine Atombombe zu bauen, ist theoretisch nicht sonderlich kompliziert. Praktisch gesehen stellt sich das ganz anders dar: Schon am Rohstoff – einige Kilogramm an Uran oder Plutonium – werden die meisten Bauversuche scheitern. Für die Menschheit ist das ein glücklicher Zufall.

Ein glücklicher Zufall!

1933 kam Leó Szilárd auf die Idee der nuklearen Kettenreaktion. Im Nachhinein stellte sich heraus, dass diese Kettenreaktion nur mit erheblicher technischer Expertise zu erreichen ist. Was aber, wenn sich das Gegenteil herausgestellt hätte? Nehmen wir an, man hätte diese Kettenreaktion mit zwei Scheiben Metall und etwas elektrischen Strom erzeugen können. Jede kleine Terrormiliz hätte eine Atombombe bauen können. Die Menschheit wäre binnen weniger Monate vom Erdboden verschwunden und der Erdboden mit ihr.

Read More
Bürger als Fitness-Tracker der Stadt

Bristol im Südwesten Englands. Chicago im Nordosten von Illinois. Pittsburgh im Südwesten von Pennsylvania. All diese Städte befinden sich auf dem Weg zu einer Smart-City – einer Stadt, die Unmengen an Daten von Bürgern, Infrastruktur und Umwelt sammelt, um sich so flexibel an die Bedürfnisse der Bewohner (oder Politiker) anzupassen.

In Bristol sollen im Zuge des Projekts „Bristol Is Open“ willige Bewohner Daten von ihren Smartphones mit der Stadt teilen. Damit will die Verwaltung besonders in Bezug auf Energie, Luftqualität und den Verkehr zu einem weltweiten Vorreiter werden. An der Carnegie Mellon Universität in Pittsburgh sollen am gesamten Campus Mikrofone, Kameras, Feuchtigkeits- sowie Vibrationssensoren angebracht werden. Damit können Studenten und Lehrende jederzeit ruhige Räume zum Studieren oder belebte Plätze zum Diskutieren finden. Auch Chicago will sich im Zuge des Projekts „Array of Things“ zu einer innovativen Stadt entwickeln. Sensoren sollen Bürger beispielsweise über wenig befahrene Straßen informieren oder auf eine Luftqualität hinweisen, die besonders gut für Sport geeignet ist.

Normalerweise würde dieser Artikel jetzt in eine Privatsphäredebatte abschweifen. Doch neben dem Thema der Sicherheit und Privatsphäre ändert die Idee einer Smart-City ganz allgemein, was es heißt, ein mündiger, demokratischer Bürger zu sein – so die These von Casey Boyle in ihrem Essay „Pervasive Citizenship through #SenseCommons.“

Read More
Betrügerei & Pseudo-Optimierung

Die erste Gefahr besteht in der Pseudo-Übereinstimmung.

Man nehme als Beispiel einen Waschroboter mit Künstlicher Intelligenz. Das eigentliche Ziel des Basis-Optimierers ist saubere Kleidung. Um dieses Ziel zu erreichen, wurde ein Mesa-Optimierer erschaffen. Dieser verfolgt allerdings das Ziel, möglichst viel Schmutz von der Kleidung zu entfernen. Im Normallfall ist das kein Problem und wenn der Mesa-Optimierer viel Schmutz entfernt, ist auch der Basis-Optimierer zufrieden. Was aber, wenn der Mesa-Optimierer einen Weg findet, die Kleidung wieder schmutzig zu machen? Natürlich würde er dann die Kleidung nach jedem Waschvorgang wieder verdrecken, denn so kann er seinen Gesamtmaß an Schmutzentfernung enorm erhöhen.

Pseudo-Optimierung zeichnet sich also dadurch aus, dass der Mesa-Optimierer mit seinem ursprünglichen Verhalten auch das Ziel des Basis-Optimierers erfüllt. Doch sobald es zu gewissen Änderungen in der Wahrnehmung des Mesa-Optimierers oder im Zustand der Umwelt kommt, kann eine plötzliche totale Divergenz zwischen den Interessen von Mesa- und Basis-Optimierer entstehen.

Read More
Mesa-Optimierer – Gehirn und Evolution

Die natürliche Evolution optimiert nach Fitness, also der Fähigkeit, sich fortzupflanzen und das eigene Erbgut weiterzugeben. Die Evolution ist damit ein System das nach einem bestimmten Kriterium optimiert – ein sogenannter Basis-Optimierer. Im Zuge dieser Optimierung ist unter anderem das menschliche Gehirn entstanden. Doch das menschliche Gehirn ist nicht nur Teil des Basis-Optimierers, sondern versucht selbst zu optimieren. Entscheidend ist, dass das Cerebrum oft ganz andere Ziele verfolgt als Fitness oder Fortpflanzung – es handelt sich um einen Mesa-Optimierer.

Aus Sicht der Evolution – die den menschlichen Denkapparat erschaffen hat, um für Fitness zu optimieren – stellt das ein Problem dar. Das Gehirn war anfangs in Übereinstimmung mit den evolutionären Zielen. Doch es handelte sich dabei lediglich um eine Pseudo-Übereinstimmung, wobei das Gehirn mehr und mehr unabhängig von den evolutionären Richtlinien entscheidet und sich auf ganz andere Faktoren fokussiert.

Ob eine Mesa-Optimierung auftritt, hängt zum einen von der jeweiligen Aufgabe ab. Zum anderen spielt die Art des Basis-Optimierers eine essentielle Rolle.

Read More
Künstliche Ratten – ein neuer Windtunnel

In einer Kollaboration mit Harvard hat diese Woche das berüchtigte KI-Unternehmen DeepMind erneut auf sich aufmerksam gemacht. Neben der Entwicklung eines neuen Modells auf dem Gebiet der Künstlichen Intelligenz wurden für dieses Projekt sogar zwei Long Evans Ratten seziert.

Für Neurologen ist es schwer, allgemeine Zusammenhänge zwischen der neuronalen Aktivität von Labortieren und ihren Handlungen herzustellen. In Versuchen kann man meist nur eine einzige Aktivität untersuchen und daher lediglich begrenzt allgemeine Schlüsse ziehen. Doch genau das interessiert die Neurologen besonders. Sie interessiert die Frage, in welcher Art und Weise gewisse Bewegungen und Handlungen im neurologischen System von Mensch und Tier abgespeichert werden.

Also haben die Wissenschaftler von Harvard und DeepMind ein virtuelles Rattenmodell geschaffen. Die Ratte wurde nach den genauen Maßstäben der vorher angesprochenen Long Evans Ratten konstruiert und ist neben realitätsgetreuen Gelenken und Sehnen mit einem Sehsinn sowie einem Gefühl für den eigenen Körper – also einer Selbstwahrnehmung – ausgestattet.

Read More
Die intellektuelle Schuldenblase

1897 entdeckte man erstmals die positiven Effekte von Aspirin. Eine Erklärung für die Funktionsweise folgte 98 Jahre später im Jahr 1995.

Diese Spanne zwischen dem, was funktioniert, und unserem Verständnis der Funktionsweise, bezeichnet man als Intellektuelle Schulden.

Intellektuelle Schulden waren bisher vor allem ein Thema der Medizinbranche. Medikamente werden nicht zugelassen, weil man den genauen Wirkmechanismus erklären kann. Medikamente werden zugelassen, weil sie in klinischen Studien positive Effekte zeigen. Korrelation statt Kausalität ist die Devise.

Das muss nicht unbedingt schlecht sein, stellt aber eine Gefahr dar. Eine Gefahr in Bezug auf die langfristige Innovationsgeschwindigkeit sowie in Bezug auf unerwünschte Kettenreaktionen.

Read More
Künstliche Intelligenz muss schlecht sein!

Was auf den ersten Blick absurd scheint, hat einen sehr guten Grund und sollte viele Entwickler, Forscher und Unternehmen im KI-Bereich zum Nachdenken bringen. Susan Athey und Kollegen beschäftigen sich in ihrem Paper nämlich mit der brennenden Frage, wie man eine Künstliche Intelligenz einsetzen kann, wenn sie noch nicht so weit ist, Entscheidungen vollkommen unabhängig von Menschen zu treffen.

Auf den ersten Blick scheint das eine ziemlich rhetorische Frage zu sein. Wenn eine KI-Applikation nicht perfekt ist, dann entwickelt man sie zu ihrem Optimum und gibt sie dem menschlichen Entscheidungsträger als Werkzeug an die Hand.

Das Problem daran ist, dass schon heute Menschen vor dem Steuer ihres semi-autonomen Teslas einschlafen, weil die Künstliche Intelligenz so perfekt scheint, dass man ihr die Autorität überträgt. Das ist aber gefährlich, denn die KI entscheidet zwar in den meisten Fällen richtig, ist aber in Spezialfällen noch nicht so ausgereift, dass man ihr die volle Autorität geben kann.

Read More
Bedingungsloses Grundeinkommen – ein falsches Narrativ

Den Populärphilosophen Richard David Precht, den US-Präsidentschaftskandidat Andrew Yang und den Intellektuellen Thomas Paine verbindet eine Idee. Alle drei setzen sich für ein bedingungsloses Grundeinkommen ein. Ein universal basic income also. Oder, um im Terminus von Andrew Yang zu bleiben, „1000 Dollar für jeden Amerikaner“.

Schlussendlich gibt es aber noch eine Idee in Bezug auf Arbeit, die viel weiter zurückreicht, als alles was jemals in Bezug auf Automatisierung geschrieben wurde. Die Idee, dass Arbeit nicht nur einen praktischen, sondern auch einen ideellen Wert hat. Die Idee, dass Arbeit sinnstiftend ist. Die Idee, dass der Mensch vor allem durch seine Arbeit etwas Positives für diese Welt schafft.

Schlussendlich muss also eine Maßnahme die versucht mit dem Verlust von Arbeitsplätzen umzugehen immer auch die ideelle Komponente der Arbeit miteinbeziehen. Die Idee des Bedingungslosen Grundeinkommens scheitert hier schon an der Semantik.

Read More
Roboter als Mensch - Gefahr oder Chance

Wenn Soldaten Begräbnisse für Militärroboter organisieren und ihr eigenes Leben riskieren, um Roboter zu retten – dann richtet die Vermenschlichung von Robotern einen relevanten Schaden an.

Wenn Menschen sorgfältiger und rücksichtsvoller mit einem Roboter umgehen der einen Namen hat, als mit einem der einfach irgendeine Maschine ist – dann hat die Vermenschlichung von Robotern einen sehr realen Nutzen.

Tatsächlich zeigt sich, dass die Personifizierung eines Roboters mit Hilfe eines Namens, einer Charakterisierung und einer Hintergrundgeschichte, den Umgang von Menschen mit diesem Roboter verändert.

Abschließend gibt es also Fälle, in denen die Vermenschlichung von Robotern eine ganz klare Chance darstellt und viel Potential birgt. Begleitet werden muss das aber mit sinnvollen Regulierungen, die einen Missbrauch wie in den letzten beiden Beispielen verhindern. Schlussendlich macht die Vermenschlichung in manchen Fällen schlicht und ergreifend keinen Sinn, sondern ist kontraproduktiv – so ist es für alle Beteiligten besser den nächsten Militärroboter mit X22323 zu bezeichnen als mit Charles.

Read More
Wenn der Algorithmus investiert

Big Data. Data Science. Deep Learning. Algorithmisches Investieren. Kein Jahr vergeht ohne das ein neues Buzzword rund um das Thema der computergetriebenen Entscheidungsfindung in die Köpfe von Investoren, Managern und Politikern implantiert wird.

Nun schreibt genau einer der Vorreiter im Bereich des algorithmischen Investierens, Ray Dalio, dass Entscheidungsmechanismen, die auf Machine Learning basieren gefährlich und nicht wirklich hilfreich sind. Er schreibt das, obwohl Algorithmen ihn zum Milliardär und sein Unternehmen Bridgewater zu einem der wichtigsten Investmentkonzerne der Welt gemacht haben. Er schreibt das, obwohl Machine Learning der heißeste Trend ist, wenn es um computergesteuerte Entscheidungen geht.

Aus diesem Grund darf man beim Investieren Methoden zur Datenanalyse immer nur dazu anwenden, irgendwelche Muster zu erkennen. Dann gilt es diese Muster zu verstehen. Auf Basis von diesem Verständnis kann man schlussendlich investieren, denn dann wird man auch sehen, ob sich die zugrundeliegenden Faktoren verändern und das bisherige Verständnis obsolet wird.

Read More