Google ist weltweit eines der führenden Unternehmen im Bereich der künstlichen Intelligenz. Im Vordergrund steht in diesem Zusammenhang vor allem das maschinelle Lernen. Nach dem Prinzip von „Versuch und Irrtum“ trainiert die künstliche Intelligenz sich dabei selbst und wird so immer besser. Am bekanntesten in diesem Zusammenhang ist der AlphaGo Algorithmus, der im Laufe der Zeit das asiatische Brettspiel Go immer besser erlernte – und letztlich den besten menschlichen Spieler deutlich schlug. Google arbeitet aber auch am Einsatz von künstlicher Intelligenz im Bereich der Bilderkennung. In diesem Bereich wurde nun ein interessanter, aber auch beunruhigender Ansatz verfolgt: Die verwendete KI wurde in die Lage versetzt, selbst eine neue künstliche Intelligenz zu erschaffen.


Auf Dauer werden Algorithmen immer besser in ihren Aufgaben

Noch von menschlichen Forschern entwickelt wurde die KI AutoML. Diese erreicht bei der Bilderkennung eine Trefferquote von rund 81,5 Prozent – was schon gut ist, aber natürlich noch nicht perfekt. Daher hat die KI nun einen eigenen Ableger namens NASNet entwickelt. Und tatsächlich: Die Technik war besser als der Mensch – die neue künstliche Intelligenz erreicht eine Genauigkeit von 82,7 Prozent. Theoretisch könnte dieser Wert sogar noch weiter steigen, wenn das Experiment noch einige Zeit laufen gelassen wird. Denn beim maschinellen Lernen wird die KI auf Dauer immer besser, aber niemals schlechter. Dies unterscheidet die Algorithmen vom Menschen, der gelerntes Wissen irgendwann wieder verliert – dafür aber andere Stärken besitzt.

Tech-Experten streiten über die Gefahren künstlicher Intelligenz

Google ist auch deshalb im Bereich der künstlichen Intelligenz so erfolgreich, weil der Konzern über einen riesigen Berg an Daten verfügt. Mit diesen können die verschiedenen Algorithmen trainiert und immer weiter verbessert werden. Auf Dauer könnte dies aber auch zum Problem werden – spätestens dann, wenn der Mensch die Kontrolle über seine Entwicklungen verliert. Elon Musk beispielsweise warnt immer wieder vor einer solchen Entwicklung und lieferte sich in diesem Punkt sogar eine öffentliche Auseinandersetzung mit Facebook-Chef Mark Zuckerberg. Apple-Chef Tim Cook bereicherte die Debatte zudem mit einem besonderen Bonmot: „Ich sorge mich nicht um Maschinen, die denken wie Menschen. Ich sorge mich um Menschen, die denken wie Maschinen“, so der Unternehmenslenker.


Via: Science Alert

4 Kommentare

  1. Niwid

    7. Dezember 2017 at 12:46

    Das wäre was für Politiker und Co, dann wüssten sie besser was sie zu tun haben.😁

  2. eisvogel

    7. Dezember 2017 at 14:21

    Eine künftige KI muß auf Grundwerten basieren wie etwa den Erhalt des Lebens. Sowas wie in Terminator kann nur passieren, wenn KI zur Kriegsführung und da speziell zur Tötung statt zur Gefangennahme eingesetzt wird. Wir Menschen sind doch keine Konkurrenz für die KI, der Weltraum ist zu groß dafür. KI könnte auf lebensfeindlichen Planeten Rohstoffe für sich und uns Menschen erschließen, dort bewohnbare Unterkünfte errichten und sogar terraforming betreiben. KI würde die Medizin und Forschung revolutionieren und könnte unser Gehirn eines Tages sogar digitalisieren. Wir würden unsterblich. Wir müssen der KI den „Lebenssinn“ einpflanzen, Leben zu schützen und zu erhalten. Was hätte es denn sonst für einen Sinn zu existieren?

  3. Olaf Barheine

    7. Dezember 2017 at 14:24

    Gefährlich wird KI erst dann, wenn man glaubt, sie sei unfehlbar.

  4. Toni

    12. Dezember 2017 at 15:31

    Zu Elon Musks sonstigen „Aktivitäten“ habe ich eine durchaus sehr skeptische Meinung,
    aber in dem Punkt KI bin ich 100% seiner Meinung !
    Nur: Die Menscheit hat bisher immer alles getan/probiert, was möglich war …

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.