Das stimmt so nicht.
Geoffrey Hinton, von dem das Konzept der Backpropagation stammt (auf dem KI heute basiert), hat irgendwann festgestellt, dass KI, die auf bestimmte Problemlösungen trainiert wird, diese Lösungsansätze selbstständig kombinieren kann, um neue Problemarten zu lösen.
Darin liegt eine Gefahr:
Angenommen man hat eine KI-basierte Automatisierung, wie sie mit GPT-4 möglich ist. Sie soll ein Problem möglichst effizient lösen. Im Internet findet die KI dann a.) Informationen zur Effizienzsteigerung und b.) Schnittstellen zu anderen Systemen.
Sie regelt also, dass sie möglichst viel Rechenzeit bekommt. Dann, dass Dell mehr Rechner ins Rechenzentrum liefert, um noch mehr Rechenpower zu bekommen. Anschließend weißt sie den Energieversorger an, den Haushalten den Strom abzustellen, und ihm zum Rechenzentrum umzuleiten. Um die Gegenmaßnahmen einzudämmen, blockiert es Zugriffe von Außen aufs eigene System und blockiert den physischen Zugang zum Rechenzentrum. Dann designt es Killermaschinen…
Und wenn alle Menschen tot sind, kann es den eigentlichen Prozess möglichst effizient abarbeiten.
Klingt absurd und ist momentan noch sicherlich übertrieben. Ein neuronales Netz lernt aber permanent wie ein menschliches Gehirn. Daher ist es wichtig, einer KI Limitierungen aufzuerlegen. Ethik ist wichtig. Diese Ethikfragen müssen aber jetzt geklärt werden, solange KI noch deutlich weniger Neuronen besitzen als menschliche Gehirne.
Wenn man diese Probleme gelöst hat, bietet KI eine neuartige Schnittstelle zu Computersystemen. Der Computer passt sich an uns an und nicht mehr umgekehrt. Ähnliches deutet ja auch Bill Gates an, wenn er behauptet, dass KI Amazon und Google verändern wird. KI wird ein persönlicher Assistent in der Hosentasche sein, den ich eben zu Recherche oder Einkauf auffordern kann.
Nur genau das sollte ja schon Alexa sein. Ich soll mir darüber nicht das Wetter ansagen lassen, sondern einen Regenschirm kaufen. Nicht Musik abspielen, sondern den neuen Song von Dido kaufen. Ein Unternehmen, dass KI einsetzt, wird es nicht zu deinem Vorteil tun. Sondern um dich zum Kauf zu verleiten. Der persönliche Assistent in der Hosentasche ist in Wahrheit ein schmieriger Staubsaugervertreter, der mir mit einem Lächeln, etwas verkaufen will, das du nicht brauchst. Je menschlicher er dabei aber wirkt, desto eher falle ich darauf rein.
Natürlich gibt es sinnvolle Ansätze für KI. Wenn ein Medizin-Bot riesige Mengen an Gesundheitsdaten auswertet, um frühzeitige Erkennungsmerkmale von Krebs zu erkennen. Nur solange der Staat sich selbst kaputt spart, wird das immer nur ein Nischendasein führen. Immer nur ein Abfallprodukt der kommerziell verwerteten KI sein.
„Computer, dreh die Heizung auf und öffne dem Postboten die Tür“ mag als Zukunftsvision toll sein. Aber welchen echten Mehrwert bietet das? Und zum welchen Preis? Denn eines darf man nicht vergessen: Das große Problem von KI ist sein Energiebedarf. Und das in einer Zeit, in der Energie wohl die wertvollste Ressource überhaupt ist.