Risiken und Potentiale der künstlichen Intelligenz

Die Künstliche Intelligenz wird in unserem Leben mit Sicherheit einige Vorteile mit sich bringen. Doch neben vielen positiven Aspekten gibt es auch negative Seiten, die man sich vor Augen halten sollte. Im Folgenden möchten wir einmal die Potentiale und Risiken betrachten, die mit der Künstlichen Intelligenz in unsere Gesellschaft Einzug halten können.

Die Risiken der Künstlichen Intelligenz

Künstliche Intelligenz ist ein faszinierendes Thema, dass die Gedanken vieler Menschen beschäftigt. Oft spuken uns dabei allerdings Bilder durch den Kopf, die wir in Hollywood Filmen zum Thema gesehen haben. Diese Konzepte sind jedoch oft negativ und meistens auch übertrieben. Die rasante Entwicklung der Künstlichen Intelligenz hat jedoch tatsächlich etliche negative Berichte ausgelöst.

Science Fiction beginnt heute, Wirklichkeit zu werden. Das liegt hauptsächlich dran, dass die intelligenten Computer Systeme immer besser in der Lage sind, die menschlichen Kapazitäten zu lesen und zu speichern. Darüber hinaus lernen sie, Muster und Regeln von Risiken Datenbänken zu entdecken, so dass sie in mancher Hinsicht bereits die Oberhand haben.

Technologie mit durchschlagendem Effekt

Künstliche Intelligenz ist eine Technologie, die in den nächsten Jahren durchschlagende Änderungen in unserem Leben mit sich bringen wird. Die Qualität der neuen Technologie hat sich in den vergangenen Jahren wesentlich erhöht, was natürlich Konsequenzen mit sich bringt.

Intelligente Systeme lernen uns immer besser kennen, gewinnen Einsicht in unsere Wünsche und die Motivation für diese Wünsche. Persönliche Assistenten, die rund um die Uhr für uns zur Verfügung stehen, werden in 10 Jahren genauso selbstverständlich sein, wie heute das Internet.

Neue Einsichten erhalten

Künstliche Intelligenz werden in der Lage sein, uns Einsichten zu gewähren, die wir nie für möglich gehalten hätten. Sie werden Antworten auf Fragen finden, von deren Existenz wir nichts wussten. Die Systeme sind schnell, unermüdlich und haben eine unendliche Fähigkeit, von Beispielen und voneinander zu lernen.

In vielen Gebieten sind diese smarten Systeme bereits intelligenter, als der Mensch. Das ist keineswegs Zukunftsmusik, sondern bereits heute eine Tatsache.

Einige Beispiele für Errungenschaften der Künstlichen Intelligenz

Mit einigen spezifischen Beispielen wird schnell deutlich, was Künstliche Intelligenz bereits heute leisten kann. So können smarte Computersysteme heute bereits Kunstfälschungen besser erkennen, als der Mensch. Andere Systeme spezialisieren sich auf die Diagnose von Demenz und können das Vorhandensein der Krankheit bereits erkennen, bevor Mediziner die Möglichkeit in Betracht ziehen würden.

Ein weiteres künstliches Intelligenzsystem ist besser in der Lage, Hautkrebs zu erkennen als Mediziner und ein weitere Beschäftigt sich mit Nagelpilz. Bilder von Google Street View können dazu beitragen, Wählerverhalten zu prognostizieren und ein Algorithmus von der Apple Watch kann Diabetes vorhersagen.

Facebook weiß, wann man mit jemandem ausgeht, noch bevor es auf der Plattform publik gemacht wird. Und bei Amazon kann Künstliche Intelligenz voraussagen, wann ein Kunde eine Sendung wünscht, noch bevor der Kunde das weiß. Die vorhersagenden Fähigkeiten sind deutlich im Vormarsch.

Negative Seiten nicht außer Acht lassen

Bei allen Vorteilen, die Künstliche Intelligenz bieten kann, sollten wir jedoch mögliche negative Konsequenzen nicht vergessen. So hat der russische Präsident Putin kürzlich erklärt, dass diejenigen, die Künstliche Intelligenz am schnellsten entwickeln, die neuen Führer der Welt werden.

Auch gibt es Systeme, die, basierend auf einem Gesichtserkennungssytem, Aussagen über die sexuellen Vorlieben von Personen machen können. Die Frage stellt sich, wie wir mit dieser neuen Art von Technologie umgehen sollten. Deshalb sollten man die positiven sowie die negativen Effekte dieser hoch-leistungsfähigen Technologie gründlich abwägen.

Wenig Transparenz bei Künstlicher Intelligenz

Die meisten Systeme der Künstlichen Intelligenz basieren auf neuronalen Netzwerken. Diese bieten jedoch kaum Möglichkeit zu erkennen, auf welcher Grundlage ihre Entscheidungen basieren. Wenn jedoch politische oder medizinische Entscheidungen getroffen werden, so ist es wichtig, die spezifischen Daten zu kennen, die zu einer Entscheidung geführt haben. Darüber bleiben wir jedoch bisher im Dunklen.

Einseitige Algorithmen

Werden Algorithmen Informationen eingegeben, die einseitig sind, so wird das System automatisch unsere Ausrichtung wiederspiegeln. Es gibt bereits verschiedene Systeme, bei denen mehr Nachteile für ethnische Minderheiten auffallen, als bei einer weißen Population. Wird ein System mit diskriminierenden Daten gefüttert, werden ebensolche Daten produziert.

Da diese Daten nun von einem Computer kommen, tendieren die Menschen dazu, ihnen mehr Glauben zu schenken. Daraufhin wird das diskriminierende System mit mehr Daten der gleichen Art gefüttert. Die Benachteiligung von Minderheiten kann sich daher schnell ausweiten.

Zu wenig Erfahrung und Kompetenz

Die Unternehmen haben heute noch nicht genug Erfahrung oder Kompetenz, um diese Datensätze korrekt zu analysieren, so dass Annahmen oder einseitige Informationen herausgefiltert werden könnten. Die Benachteiligung von Minoritätsgruppen wird dich stärker abzeichnen, als zuvor und die Ungleichheit wird ansteigen. Niemand weiß genau, was im Inneren des Systems vor sich geht und das Resultat muss als gegeben hingenommen werden.

Die möglichen Resultate können wir uns an einem Beispiel vor Augen halten. Nur allzu oft ist ein Angeklagter von einem nicht-transparenten System unschuldig verurteilt worden. Ebenso trägt ein vorhersagendes Überwachungssystem dazu bei, dass Minderheiten benachteiligt werden.

Darüber hinaus müssen wir und darüber Gedanken machen, wie es vermieden werden kann, dass feindliche Regierungen kontaminierte Daten in unsere Systeme einspeisen. Wir müssen vermeiden, dass wir mehr und mehr zu einer Gesellschaft werden, in der Computer die Entscheidungen treffen, ohne dass wir wissen, auf welche Weise sie zu diesen Entscheidungen gelangt sind.

Verantwortlichkeit für Aktionen

Die legalen Aspekte sind immer noch weitgehend unklar für eine Welt, die mehr und mehr von intelligenten Systemen bestimmt wird. Wer ist verantwortlich, wenn Fehler passieren? Kann ein Unternehmen überhaupt noch zur Verantwortung gezogen werden, für die Aktionen von einem intelligenten System, das sein Aktionen selbst bestimmt? Akzeptieren wir die Fehlerspanne der Systeme, selbst wenn tödliche Fehler auftreten?

Ein zu großes Mandat

Je mehr Smart Systeme zum Einsatz kommen, desto öfter wird sich auch die Frage stellen, welche Reichweite diese Systeme haben sollen. Wollen wir weiterhin in Kontrolle bleiben, wie es die EU wünscht, oder die Systeme Entscheidungen selbständig treffen lassen?

Wenn Künstliche Intelligenz mehr und mehr Entscheidungen ohne menschliches Zutun trifft und diese auch umsetzen kann, könnten wir und schnell in einer Welt wiederfinden, die wir nicht mehr verstehen. Wir müssen verstehen, dass menschliche Werte wie Empathie und Solidarität auf dem Spiel stehen, wenn wir mehr und mehr unbequeme Entscheidungen dem Computer überlassen.

Zu wenig Privatsphäre

Smart Systeme brauchen riesige Mengen von Daten, um richtig funktionieren zu können. Darum sind Unternehmen, die mit Smart Systemen arbeiten, auch ständig auf der Suche nach neuen Daten. Es besteht beispielsweise die Gefahr, dass Unternehmen immer mehr persönliche Daten über uns einsammeln und dass diese auch für politische Zwecke genutzt werden.

Darüber hinaus wird die Technologie auch über Augen verfügen. Kameras können leicht mit Facial Recognition Software ausgestattet werden und unser Geschlecht, Alter, Volksangehörigkeit und Gemütszustand können von Smart Software bestimmt werden. Das ist keineswegs eine Zukunftsvision. Diese Technologie existiert bereits heute. So tragen in China Polizisten bereits Brillen mit einem solchen System, das auf eine Datenbase von Tausenden von Verdächtigen zurückgreift.

Einfluss der großen Tech Unternehmen steigt

Weltweit gibt es heute acht Tech Unternehmen, die über ausreichende Data und Know-how verfügen, um die Künstliche Intelligenz weiterzuentwickeln. So besteht das Risiko, dass die mächtige Technologie in den Händen von acht privaten Unternehmen liegt. Es ist abzusehen, dass kommerzielle Ziele in der Entwicklung tonangebend sein werden. Es bleibt abzuwarten, wie diese Unternehmen in Zukunft mit der Entwicklung der Künstlichen Intelligenz umgehen werden.

Künstliche Super-Intelligenz

Die Diskussion um Künstliche Intelligenz ist häufig von der Debatte über Super-Intelligenz bestimmt. Es geht dabei um ein System, das menschliche Intelligenz weit übertrifft. Somit ist es in der Lage, selbständig zu lernen, sich in unbekannten Feldern zu schulen und Zusammenhänge zu erkennen, ohne das Menschen daran mitwirken müssen. So werden Menschen praktisch überflüssig und bestenfalls geduldet.

Dieses Szenario sollte durchaus ernst genommen werden. Die Systeme sollten daher zunächst unsere moralischen Werte erlernen. Es ist wichtig, dass die Systeme etwas über menschliche Erwägungen lernen, so dass sie in gewisser Hinsicht ein gewissen bekommen können. Die Technologie ist heute jedoch noch nicht weit genug entwickelt, um zu wissen, ob das tatsächlich möglich ist.

Facebook als Beispiel

Ein gutes Beispiel wie Künstliche Intelligenz unser Leben beeinflussen kann, ist Facebook. Die Facebook Algorithmen werden beständig smarter und haben dabei nur ein Ziel vor Augen: Den Nutzer so lange wie möglich zum Verbleiben auf der Plattform und zur Interaktion mit den Inhalten zu bewegen. Wahrheit oder Qualität der Inhalte spielt dabei für Facebook keine Rolle und auch nicht die gefährlichen Konsequenzen, die daraus erwachsen können.

Auswirkung auf den Arbeitsmarkt

In den nächsten Jahren wird die Künstliche Intelligenz einen großen Einfluss auf den Arbeitsmarkt nehmen. Sie Systemen können stets mehr Skills lernen und solche Aufgaben übernehmen, die heute von Menschen ausgeführt werden. Daher besteht die Notwendigkeit für Berufstätige, sich neu auszurichten, um solche Aufgaben zu übernehmen, die den Menschen vorbehalten bleiben werden.

Unabhängige Waffen

Experten warnen heut vor unabhängigen Waffensystemen, die durch Künstliche Intelligenz kontrolliert werden. Es ist nur eine Frage der Zeit, bis selbständige Drohnen mit Facial Recognition und 3-D Print Waffen unterwegs sein können. So müssen wir und mit der Frage beschäftigen, ob Künstliche Intelligenz die Entscheidung über Leben und Tod treffen darf.

Verlust von Kompetenzen

Durch den vermehrten Einsatz von Computern und smarten Systemen werden mehr und mehr menschliche Fähigkeiten verloren gehen. Während es hilfreich ist, dass Computer und Smartphone uns bereits heute das Leben in vieler Hinsicht erleichtern, so stellt sich dennoch die Frage, wie viele Aspekte unseres Lebens wird der Künstlichen Intelligenz zu überlassen gewillt sind.

Schreib als Erster einen Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.