text

Posts tagged AI
KI und die falsche Frage

Wie lange wird es wohl noch dauern, bis Maschinen uns Menschen in allen Aspekten überlegen sind? Wann wird die erste Künstliche Intelligenz ein Start-Up gründen und auf Basis ihrer eigenen innovativen Ideen ein Milliardenunternehmen aufbauen?

Für Claude Shannon – den Begründer der Informationstheorie – war die Antwort auf diese Frage schon vor einigen Jahrzehnten klar.

„I think that creative stuff is still a long ways off. But in the meantime it can be a boom to humanity. And I´d like to see that happen as soon as possible.” – Claude Shannon.

Read More
Vergessliche KI-Systeme

In den letzten Jahren gab es auf dem Gebiet der Künstlichen Intelligenz einige herausragende Durchbrüche. In vielen Fällen beziehen sich diese Durchbrüche aber auf einzelne Aufgaben. KI-Systeme werden also immer besser darin, spezifische Aufgaben möglichst optimal durchzuführen.

In Bezug auf das Erinnerungsvermögen sind KI-Systeme der tierischen Intelligenz aber oft noch weit unterlegen. Wenn ein KI-System zuerst die Aufgabe A und dann die Aufgabe B lernt, kommt es bei vielen Systemen zu katastrophalem Vergessen. Die Modelle stellen sich also so genau auf die neue Aufgabe B ein, dass sie die alte Aufgabe A nicht mehr durchführen können.

Read More
Raketenbau und Künstliche Intelligenz

Raketenwissenschaft ist nicht umsonst eine Raketenwissenschaft. Viel komplizierter als die Raketenwissenschaft selbst ist aber der tatsächliche Bau von Raketen.

Elon Musk vergleicht die Konstruktion von Weltraumfahrzeugen mit dem Schreiben einer enorm komplexen Software. Nur kann man die Software in ihrer Gesamtheit nie testen und wenn man sie zum ersten Mal testet, darf sie keine Fehler mehr haben.

Doch jeder der schon einmal ein Stück Software programmiert hat, weiß: Eine Software zu entwickeln, die man nie testen darf und die dennoch von Beginn an ohne Bugs läuft, ist ein Ding der Unmöglichkeit.

Read More
KI-Nanny & Prävention

Technologische Entwicklungen sind in vielen Fällen ein Segen für die Menschheit – sie bescheren uns Wohlstand, verlängern unsere Lebensdauer oder machen die Zukunft spannend. Allerdings reicht ein Blick auf Atombomben und Waffensysteme, um die Schattenseiten von Technologie zu erblicken.

Bisher hat die Menschheit noch alle technologischen Entwicklungen überlebt. Je komplexer die Systeme allerdings werden, desto höher auch die Chance einer negativen Überraschung, die zur Extinktion der Menschheit führt.

Besonders brisant in diesem Zusammenhang ist die Künstliche Intelligenz.

Read More
Matrix & Sicherheit Künstlicher Intelligenz

Nimmst du die rote Pille, um die Wahrheit zu erfahren? Oder wählst du die blaue Pille und verharrst in deiner fiktiven Realität?

Die meisten von uns würden ganz instinktiv die rote Pille nehmen. Niemand will in einer fiktiven Welt leben - wir wollen die Realität. Genau daraus ergibt sich die Faszination von Filmen wie „The Matrix“.

Die Grundannahme ist dabei immer die Gleiche: Es gibt eine Künstliche Intelligenz, die den Menschen weit überlegen ist. Um die Menschen zu kontrollieren, schließt die KI unsere Gehirne an einen Computer an. Wir leben fortan in einer simulierten Welt, aber merken es nicht. Währenddessen kann die KI in der realen Welt tun und lassen was sie will. Soweit die verbreiteten Science-Fiction-Theorien.

Read More
Offenheit und Künstliche Intelligenz

“I think the best defense against the misuse of AI is to empower as many people as possible to have AI. If everyone has AI powers, then there’s not any one person or a small set of individuals who can have AI superpower.” – Elon Musk in einem Interview mit Steven Levy.

Elon Musk hält Offenheit für einen essentiellen Aspekt bei der Entwicklung Künstlicher Intelligenz. Und er ist damit nicht allein, denn seine Grundidee ist einfach und leuchtet ein: Wenn Künstliche Intelligenz ein Level erreicht, das die menschliche Intelligenz weit übertrifft, darf es kein Unternehmen, keinen Staat und keine Einzelperson geben, die diese Technologie allein kontrolliert. Indem man fordert, dass KI-Entwickler auf der ganzen Welt ihre technologischen Entwicklungen offenlegen, kann man verhindern, dass ein überlegenes Monopol entsteht.

Das Problem ist gelöst.

Read More
Erweitertes Denken & Bewusstsein

Wir rechnen mit Stift und Papier, machen Skizzen, erstellen Diagramme. Wir tun all das, um die Dinge besser zu verstehen.

In einer Studie aus dem Jahr 1994 hat man festgestellt, dass es circa eine Sekunde dauert, um ein einfaches geometrisches Objekt im eigenen Kopf um 90 Grad zu drehen. Mit einem Computer gelang dieselbe Drehung in etwa 300 Millisekunden – weniger als einem Drittel der Zeit.

Ähnlich ist die Situation bei den Smartphones. Gerade wenn es um Faktenwissen geht, greift man eher zum Smartphone, als lange das eigene Gedächtnis zu durchforsten.

Damit übernehmen aber das Handy, der Computer oder auch Stift und Papier eine Funktion, die sonst unser Gehirn ausführen würde. Diese Objekte werden zum Bestandteil unseres Denkens – ein Bestandteil genau wie das Gehirn selbst.

Read More
Formen der „Labilen Welt“

Es gibt verschiedene Arten von schwarzen Kugeln, die unter aktuellen Umständen das Ende der Menschheit bedeuten würden. Nick Bostrom spricht in seinem Paper „The vulnerable world hypothesis.“ von vier Formen derartiger Kugeln.

Typ 1 wurde mit dem Gedankenspiel der Atombomben bereits illustriert. Damit ist eine Technologie gemeint, die ein enormes destruktives Potential hat und gleichzeitig einfach zu konstruieren ist. Wenn also eine Atombombe von jedem Physikstudenten gebaut werden könnte, hätten wir es mit einer schwarzen Kugel von Typ 1 zu tun.

Dabei gibt es einen inversen Zusammenhang zwischen der Einfachheit dieser Technologie und ihrer Wirkung. Eine Technologie, die so einfach ist, dass jeder Krimineller sie verwenden kann, stellt auch bei einem moderaten Level an Destruktionspotential eine schwarze Kugel dar. Denn selbst wenn diese Technologie bei ihrer Anwendung nur eine einzige Stadt zerstören kann, werden sich genügend Anwender finden, um die meisten Städte der Erde zu vernichten.

Read More
Betrügerei & Pseudo-Optimierung

Die erste Gefahr besteht in der Pseudo-Übereinstimmung.

Man nehme als Beispiel einen Waschroboter mit Künstlicher Intelligenz. Das eigentliche Ziel des Basis-Optimierers ist saubere Kleidung. Um dieses Ziel zu erreichen, wurde ein Mesa-Optimierer erschaffen. Dieser verfolgt allerdings das Ziel, möglichst viel Schmutz von der Kleidung zu entfernen. Im Normallfall ist das kein Problem und wenn der Mesa-Optimierer viel Schmutz entfernt, ist auch der Basis-Optimierer zufrieden. Was aber, wenn der Mesa-Optimierer einen Weg findet, die Kleidung wieder schmutzig zu machen? Natürlich würde er dann die Kleidung nach jedem Waschvorgang wieder verdrecken, denn so kann er seinen Gesamtmaß an Schmutzentfernung enorm erhöhen.

Pseudo-Optimierung zeichnet sich also dadurch aus, dass der Mesa-Optimierer mit seinem ursprünglichen Verhalten auch das Ziel des Basis-Optimierers erfüllt. Doch sobald es zu gewissen Änderungen in der Wahrnehmung des Mesa-Optimierers oder im Zustand der Umwelt kommt, kann eine plötzliche totale Divergenz zwischen den Interessen von Mesa- und Basis-Optimierer entstehen.

Read More
Mesa-Optimierer – Gehirn und Evolution

Die natürliche Evolution optimiert nach Fitness, also der Fähigkeit, sich fortzupflanzen und das eigene Erbgut weiterzugeben. Die Evolution ist damit ein System das nach einem bestimmten Kriterium optimiert – ein sogenannter Basis-Optimierer. Im Zuge dieser Optimierung ist unter anderem das menschliche Gehirn entstanden. Doch das menschliche Gehirn ist nicht nur Teil des Basis-Optimierers, sondern versucht selbst zu optimieren. Entscheidend ist, dass das Cerebrum oft ganz andere Ziele verfolgt als Fitness oder Fortpflanzung – es handelt sich um einen Mesa-Optimierer.

Aus Sicht der Evolution – die den menschlichen Denkapparat erschaffen hat, um für Fitness zu optimieren – stellt das ein Problem dar. Das Gehirn war anfangs in Übereinstimmung mit den evolutionären Zielen. Doch es handelte sich dabei lediglich um eine Pseudo-Übereinstimmung, wobei das Gehirn mehr und mehr unabhängig von den evolutionären Richtlinien entscheidet und sich auf ganz andere Faktoren fokussiert.

Ob eine Mesa-Optimierung auftritt, hängt zum einen von der jeweiligen Aufgabe ab. Zum anderen spielt die Art des Basis-Optimierers eine essentielle Rolle.

Read More
Künstliche Ratten – ein neuer Windtunnel

In einer Kollaboration mit Harvard hat diese Woche das berüchtigte KI-Unternehmen DeepMind erneut auf sich aufmerksam gemacht. Neben der Entwicklung eines neuen Modells auf dem Gebiet der Künstlichen Intelligenz wurden für dieses Projekt sogar zwei Long Evans Ratten seziert.

Für Neurologen ist es schwer, allgemeine Zusammenhänge zwischen der neuronalen Aktivität von Labortieren und ihren Handlungen herzustellen. In Versuchen kann man meist nur eine einzige Aktivität untersuchen und daher lediglich begrenzt allgemeine Schlüsse ziehen. Doch genau das interessiert die Neurologen besonders. Sie interessiert die Frage, in welcher Art und Weise gewisse Bewegungen und Handlungen im neurologischen System von Mensch und Tier abgespeichert werden.

Also haben die Wissenschaftler von Harvard und DeepMind ein virtuelles Rattenmodell geschaffen. Die Ratte wurde nach den genauen Maßstäben der vorher angesprochenen Long Evans Ratten konstruiert und ist neben realitätsgetreuen Gelenken und Sehnen mit einem Sehsinn sowie einem Gefühl für den eigenen Körper – also einer Selbstwahrnehmung – ausgestattet.

Read More
Die intellektuelle Schuldenblase

1897 entdeckte man erstmals die positiven Effekte von Aspirin. Eine Erklärung für die Funktionsweise folgte 98 Jahre später im Jahr 1995.

Diese Spanne zwischen dem, was funktioniert, und unserem Verständnis der Funktionsweise, bezeichnet man als Intellektuelle Schulden.

Intellektuelle Schulden waren bisher vor allem ein Thema der Medizinbranche. Medikamente werden nicht zugelassen, weil man den genauen Wirkmechanismus erklären kann. Medikamente werden zugelassen, weil sie in klinischen Studien positive Effekte zeigen. Korrelation statt Kausalität ist die Devise.

Das muss nicht unbedingt schlecht sein, stellt aber eine Gefahr dar. Eine Gefahr in Bezug auf die langfristige Innovationsgeschwindigkeit sowie in Bezug auf unerwünschte Kettenreaktionen.

Read More
Bedingungsloses Grundeinkommen – ein falsches Narrativ

Den Populärphilosophen Richard David Precht, den US-Präsidentschaftskandidat Andrew Yang und den Intellektuellen Thomas Paine verbindet eine Idee. Alle drei setzen sich für ein bedingungsloses Grundeinkommen ein. Ein universal basic income also. Oder, um im Terminus von Andrew Yang zu bleiben, „1000 Dollar für jeden Amerikaner“.

Schlussendlich gibt es aber noch eine Idee in Bezug auf Arbeit, die viel weiter zurückreicht, als alles was jemals in Bezug auf Automatisierung geschrieben wurde. Die Idee, dass Arbeit nicht nur einen praktischen, sondern auch einen ideellen Wert hat. Die Idee, dass Arbeit sinnstiftend ist. Die Idee, dass der Mensch vor allem durch seine Arbeit etwas Positives für diese Welt schafft.

Schlussendlich muss also eine Maßnahme die versucht mit dem Verlust von Arbeitsplätzen umzugehen immer auch die ideelle Komponente der Arbeit miteinbeziehen. Die Idee des Bedingungslosen Grundeinkommens scheitert hier schon an der Semantik.

Read More
Roboter als Mensch - Gefahr oder Chance

Wenn Soldaten Begräbnisse für Militärroboter organisieren und ihr eigenes Leben riskieren, um Roboter zu retten – dann richtet die Vermenschlichung von Robotern einen relevanten Schaden an.

Wenn Menschen sorgfältiger und rücksichtsvoller mit einem Roboter umgehen der einen Namen hat, als mit einem der einfach irgendeine Maschine ist – dann hat die Vermenschlichung von Robotern einen sehr realen Nutzen.

Tatsächlich zeigt sich, dass die Personifizierung eines Roboters mit Hilfe eines Namens, einer Charakterisierung und einer Hintergrundgeschichte, den Umgang von Menschen mit diesem Roboter verändert.

Abschließend gibt es also Fälle, in denen die Vermenschlichung von Robotern eine ganz klare Chance darstellt und viel Potential birgt. Begleitet werden muss das aber mit sinnvollen Regulierungen, die einen Missbrauch wie in den letzten beiden Beispielen verhindern. Schlussendlich macht die Vermenschlichung in manchen Fällen schlicht und ergreifend keinen Sinn, sondern ist kontraproduktiv – so ist es für alle Beteiligten besser den nächsten Militärroboter mit X22323 zu bezeichnen als mit Charles.

Read More
Wenn der Algorithmus investiert

Big Data. Data Science. Deep Learning. Algorithmisches Investieren. Kein Jahr vergeht ohne das ein neues Buzzword rund um das Thema der computergetriebenen Entscheidungsfindung in die Köpfe von Investoren, Managern und Politikern implantiert wird.

Nun schreibt genau einer der Vorreiter im Bereich des algorithmischen Investierens, Ray Dalio, dass Entscheidungsmechanismen, die auf Machine Learning basieren gefährlich und nicht wirklich hilfreich sind. Er schreibt das, obwohl Algorithmen ihn zum Milliardär und sein Unternehmen Bridgewater zu einem der wichtigsten Investmentkonzerne der Welt gemacht haben. Er schreibt das, obwohl Machine Learning der heißeste Trend ist, wenn es um computergesteuerte Entscheidungen geht.

Aus diesem Grund darf man beim Investieren Methoden zur Datenanalyse immer nur dazu anwenden, irgendwelche Muster zu erkennen. Dann gilt es diese Muster zu verstehen. Auf Basis von diesem Verständnis kann man schlussendlich investieren, denn dann wird man auch sehen, ob sich die zugrundeliegenden Faktoren verändern und das bisherige Verständnis obsolet wird.

Read More
Künstliche Intelligenz & Antibiotika

Dass der gesellschaftliche Diskurs rund um Künstliche Intelligenz oft weit von der Realität der heutigen Systeme entfernt ist, ist nichts Neues. In meinem Artikel „Pars pro toto & künstliche Intelligenz“ bin ich bereits darauf eingegangen, wie wir die Kapazitäten dieser Systeme überschätzen und die praktischen Risiken bei der Anwendung daher unterschätzen.

Doch im Zuge der fehlerhaften Mainstream-Narrative dieser Systeme werden nicht nur manche Risiken falsch bewertet und Fähigkeiten überschätzt. Im Schatten des Mainstream-Narrativs gehen auch die wirklichen Potentiale dieser Systeme unter, beispielsweise im Bereich der Medikamentenforschung.

In ihrem Artikel „A Deep Learning Approach to Antibiotic Discovery“ vom 20. Februar 2020 präsentieren einige Wissenschaftler von Harvard und dem MIT ihre Ergebnisse eines Deep Learning Modells zum Entdecken von Antibiotika.

Read More
Daten und Wählen

«Na und, sollen sie meine Gespräche doch aufnehmen. Sollen Amazon, Facebook, Google und der Staat meine Daten sammeln. Ich habe nichts zu verbergen.»

Diese oft genannte Begründung dafür, mit den eigenen Daten sehr leichtfertig umzugehen, würde überraschen, wenn man von einem grundlegenden Technologieverständnis in der Bevölkerung ausgehen würde.

Das weitläufige Verständnis scheint zu sein, dass irgendein Mitarbeiter im Headquarter von Amazon sitzt und sich die Sprachaufnahmen von Alexa anhört. In diesem Fall wäre es tatsächlich egal, was mit den eigenen Daten passiert, insofern man nichts zu verbergen hat.

Read More
Pars pro toto & künstliche Intelligenz

Der gesellschaftliche Diskurs rund um die künstliche Intelligenz beschränkt sich, getrieben von Science-Fiction-Filmen und Büchern wie denen von Yuval Noah Harari, auf zwei Narrative. Das erste Narrativ beschreibt eine Menschheit, die von der künstlichen Intelligenz überrannt, kontrolliert und tyrannisiert wird. Das zweite Narrativ behandelt das Thema der Arbeitsplätze, die durch künstliche Intelligenz wegfallen.

Wenn man dann immer wieder Berichte von nahezu perfekt selbstfahrenden Autos, Algorithmen, die Röntgenbilder besser als Ärzte interpretieren oder Songs im Stile von Bach oder Mozart komponieren können, hört, scheinen beide Narrative kurz vor ihrer Erfüllung zu stehen.

Read More