Suche in allen Interviews
Abbrechen
Interview mit KI-Forscher KI-Forscher Mugdim Bublin
 
       
       
Mugdim Bublin

KI-Forscher

Gesellschaft
21.05.2023
DI Dr. techn. Mugdim Bublin ist Stiftungsprofessor der Stadt Wien für Artificial Intelligence an der FH Campus Wien und verantwortet dort den Bereich rund um künstliche Intelligenz und maschinelles Lernen. Zuvor war er Gastlektor an der FH Kärnten und arbeitete für Firmen wie Siemens oder Bosch. Sein Studium und Doktorat absolvierte er an der TU Wien. Im Interview mit Talkaccino spricht er über die Chancen und Gefahren künstlicher Intelligenz.

Tech-Milliardär Elon Musik soll einmal folgendes Gedankenspiel bemüht haben: Was, wenn wir künstlicher Intelligenz die Aufgabe stellen, dass Spam verhindert werden soll? Was, wenn künstliche Intelligenz schlussfolgert, dass die effizienteste Form der Spam- Vermeidung folgende ist: die Auslöschung der Menschheit.

Ich glaube, davon sind wir weit entfernt. Eine wirkliche Gefahr ist künstliche Intelligenz in absehbarer Zeit nicht, da sie noch nicht selbstständig ist. Trotz der aktuell sehr beeindruckenden Leistungen kann sie sich selbst weder bewegen noch ernähren und ist auf uns angewiesen. Sie muss immer noch am Strom angesteckt werden. KI ist kein fremdes Wesen, das uns gefährlich werden könnte. Die Aussage von Elon Musk halte ich daher für etwas überzeichnet. Ich sehe die Gefahr der künstlichen Intelligenz bei den Menschen. Sie sind die Schwachstelle in der Verwendung der künstlichen Intelligenz, wenn sie bösartig missbraucht wird. Jede Technologie kann gut und schlecht sein. Je nachdem, wie sie eingesetzt wird.

Frühere Beispiele wären das Dynamit oder die Atombombe.

Genau, vollkommen richtig. Je leistungsfähiger eine Technologie wird, desto stärker wird sie gebraucht, aber desto stärker wird sie auch missbraucht, weil es immer Menschen gibt, die Technologie auch für etwas Schlechtes einsetzen.
»Menschen werden womöglich an der falschen Stelle durch künstliche Intelligenz ersetzt«

Was wäre ein schlechter Einsatz von künstlicher Intelligenz?

Das klassische Beispiel ist, dass Menschen militärisch im Krieg Schaden zugefügt werden kann. Was womöglich unterschätzt wird, ist, dass Menschen durch künstliche Intelligenz an der falschen Stelle ersetzt werden können.

Ein Beispiel wäre, wenn Roboter im Krieg eingesetzt werden. Man könnte argumentieren, dass es »ethischer« ist, als Menschen in den Krieg zu schicken. Gleichzeitig wird ein Roboter vielleicht nicht zwischen Kindern und Soldaten unterscheiden.

Richtig. Ein weiterer Faktor ist folgender: Je ausgereifter und eigenständiger Roboter sind, desto geringer ist die Wahrscheinlichkeit, selbst verletzt zu werden, wodurch womöglich die Bereitschaft steigt, einen Krieg zu beginnen.

Das ist aktuell zwischen Nationen auch so. Es werden Wahrscheinlichkeiten für Sieg und Niederlage berechnet.

Ja, mit künstlicher Intelligenz sind wir allerdings noch eine Stufe weiter, weil sie eine höhere Zerstörungskraft entwickeln kann.

Sind apokalyptische Endzeitfantasien wie in Sci-Fi-Filmen à la »Terminator« wirklich nur noch Fantasie oder könnten sie in nicht allzu ferner Zukunft Realität werden?

Meiner Meinung sind sie Fantasie.

Wie lange noch?

Dazu gibt es unterschiedliche Schätzungen. Manche meinen, dass es in den kommenden 15 Jahren passieren kann, dass die Menschen von Maschinen überholt werden. Andere meinen, dass es niemals passieren wird. Dieser Gruppe gehöre ich an. Wieder andere meinen, dass es in 100 Jahren so weit sein wird. Im Mittel liegen wir damit bei ungefähr 50 Jahren, dass menschliche Fähigkeiten durch Maschinen erreicht werden können. Wirklich prophezeien kann es niemand.

Warum gehören Sie der Gruppe an, die glaubt, dass es nie so weit sein wird?

Der Mensch ist viel komplexer als all diese Systeme. Wir sind durch Milliarden von Jahren der Evolution entstanden und verstehen nicht mal so richtig, was in uns passiert. Wie sollen wir dann etwas so Hochentwickeltes bauen, das uns selbst übertrifft? Trotz all der Fortschritte der Technologie und Wissenschaft sind wir nicht in der Lage, künstlich etwas Lebendiges zu schaffen – beispielsweise ein Mücke, die fliegt.

Wir können Schafe klonen.

Ja, aber dabei nutzen wir die natürlichen Ressourcen. Es braucht immer noch Schafe, um Schafe zu klonen. Und ja, wir können die Natur manipulieren. Aber etwas ganz Neues, das lebendig ist, können wir nicht erschaffen. Klar, wir können stärkere und schnellere Maschinen schaffen. Aber gesamtheitlich etwas Selbstständiges mit allen Funktionen eines lebenden Organismus wäre mir nicht bekannt.
Im Interview: Mugdim Bublin

Verarbeitet künstliche Intelligenz nur das, was natürliche Intelligenz schon einmal geschaffen hat?

Im Prinzip schon. Künstliche Intelligenz lernt aus Daten, die von Menschen geschaffen werden. Grundsätzlich basiert die Entwicklung von KI auf neuronalen Netzen, die unser Gehirn mit ungefähr 100 Milliarden Neuronen als Vorbild haben. In diesen Neuronen ist unser Gedächtnis gespeichert, das mittels Synapsen, die sich mit der Zeit auch ändern, zusammenhängt. Zumindest ist das die gängige Theorie. Andere Theorien gehen davon aus, dass sich die Zusammenhänge des Gedächtnisses auf Proteinebene abspielen. Beim Ansatz von künstlicher Intelligenz geht es darum, die logischen Dimensionen dieser neuronalen Netze abzubilden. Ein früherer Ansatz arbeitete auf symbolischer Ebene, wie auch klassische Computerprogramme. So wurde der frühere Schachweltmeister Kasparow von einem Schachcomputer geschlagen. ChatGPT3 beispielsweise ist ein neuronales Netz mit 175 Milliarden Neuronen. Bei diesem neuen Ansatz handelt es sich um ein komplexes adaptierbares System, vergleichbar mit Ameisen oder Bienen. Ich gebe nun nicht mehr nur einen Befehl, sondern gebe ein Ziel vor, wodurch bessere Leistungen erzielt werden, weil das System womöglich schnellere Wege zum Ziel findet als durch Vorgaben, die ich machen würde. Das System lernt sozusagen wie ein Kind oder unser Gehirn, wenn auch noch viel einfacher. Es geht darum, dass es wissenschaftlich gesehen ein ähnlicher Ansatz ist.

Das heißt, künstliche Intelligenz nimmt bestehende Daten und lernt mit der Aufgabe, wie sie schnellstmöglich zum Ziel kommt.

Das auch, aber es geht darum, ein lernfähiges System zu bauen. Bienen und Ameisen sind im Vergleich zu uns relativ einfach aufgebaut, aber dennoch sind sie in der Lage, relativ komplexe Aufgaben zu lösen, wie beispielsweise den schnellsten Weg von der Futterquelle zum Nest zu finden. Durch Feedback passiert eine gewisse Selbstreflexion. Das kann man auf unterschiedlichen Ebenen betrachten – von einfachen Insekten bis hin zu menschlichen Gesellschaften. Wir alle zusammen sind in der Lage, viel komplexere Aufgaben zu erledigen als eine Einheit für sich. Dieser Vorgang passiert nicht nur bei einer zentralen Stelle, die den Ablauf regelt, sondern durch einen modularen Aufbau. Beteiligt sind Institutionen, größere und kleinere Gruppen und so weiter.

Also bewegt sich künstliche Intelligenz in dem von uns gesetzten Rahmen, wie beispielsweise ein Bienenschwarm, eine menschliche Stadt oder ein Ameisenhaufen, aber von selbst kann KI keine Evolution durchlaufen. Ein Fischschwarm wird nicht auf einmal zu einer Menschenmasse. Da wären wir dann an dem Punkt, wo wir nicht mehr wissen, wie es sich selbst weiterentwickelt.

Wir definieren zwar die Struktur und die Verbindung der Neuronen, wie bei allen komplexen Systemen weiß man aber nicht, was gelernt wird. Man geht davon aus, dass aus einer gewissen Regelmäßigkeit von Daten gelernt wird. Im Detail weiß man es allerdings nicht. Das ist ein massives Problem von neuronalen Netzen, da sie im Grunde Blackboxes sind, auch wenn es Algorithmen gibt, die es transparenter darstellen. Es ist wie bei Kindern. Man kann sich anstrengen und sein Bestes geben. Was es aber wirklich lernt, weiß man erst später. Welcher Output bei welchem Input resultiert, kann man vorher nicht sagen.

Sie meinten vorhin, dass künstliche Intelligenz immer vom Strom abhängig ist, den wir anstecken oder abstecken. Ein Programm könnte einen Code schreiben, der sich auf einem USB-Stick einnistest und dort »überwintert« und erst wieder aktiv wird, sobald er sich wieder am Netz befindet, um es zu infiltrieren.

Theoretisch wäre das möglich, praktisch sind wir noch nicht so weit.

Ende der 1990er, Anfang der 2000er steckte das kommerzielle Internet, wie wir es heute kennen, in den Kinderschuhen. Die breite Masse konnte damals nicht erahnen, wie sehr diese Technologie unseren Alltag verändern wird. Der Start der Smartphones ein paar Jahre später hat die Entwicklung nochmals deutlich verstärkt. Was wird im Jahr 2045 mit KI und maschinellem Lernen alles möglich sein?

Wissenschaftler und Techniker sind beim Prophezeien genauso schlecht wie alle anderen, daher ist das schwer vorstellbar, außer dass es viel mehr Möglichkeiten als heute geben wird. Wie beim Internet wird es wichtig sein, diese neue Technologie kritisch zu verwenden im Umgang. Bei künstlicher Intelligenz wird es noch wichtiger sein.

Sie sprechen damit die politische Regulierung an.

Auch, aber vor allem die Anwender und User, also uns alle. Wenn wir Texte auf Wikipedia oder Twitter lesen, sollten wir hinterfragen, ob das stimmen kann und ob es richtig argumentiert und begründet ist. Oder handelt es sich dabei vielleicht um reine Fantasie? Diese kritische menschliche Fähigkeit wird immer wichtiger. Wenn uns ChatGPT eine Antwort auf eine gestellte Frage gibt, sollten wir auch hinterfragen, ob sie plausibel ist oder nicht. Um das abschätzen zu können, wird man sich immer besser auskennen müssen. Im Internet ist es nichts anderes. Es gibt viele Möglichkeiten. Die Frage ist, wie und wofür wir diese Möglichkeiten verwenden.

Neue Technologien verändern den Arbeitsmarkt meist nachhaltig. Bereits jetzt sieht man, dass künstliche Intelligenz Bilder und Texte relativ rasch erstellen kann. Werden uns Maschinen, Computer und Programme in Zukunft unsere Arbeit abnehmen?

Manche Jobs werden wegfallen, manche Jobs werden entstehen – wie bei jeder Technologie. Wichtig ist, dass Menschen weiterhin gebraucht werden. Durch die KI wird die Ausbildung eine bessere sein müssen. Es wird darum gehen, dass man nicht nur seine Sinne und das klassische Handwerk zu verstehen hat, sondern auch, wie man mit neuen Tools umgeht.

Für ältere Menschen könnte das schwierig werden. Ein 55-jähriger LKW-Fahrer wird nicht so einfach einen neuen Job in einem anderen Berufsfeld finden, sobald LKWs von selbst fahren können. Für einen 20-Jährigen ist es einfacher, weil er sich gerade in Ausbildung befindet oder leichter Umschulungen machen kann.

Das stimmt natürlich. In Bereichen, in denen menschliche Arbeit durch KI ersetzt werden kann, wird es Übergangsphasen geben, in denen es beides benötigt. Einsatzbar wären beispielsweise Menschen, die sich kurz vor der Pension befinden. Die jüngeren hingegen beginnen in diesen Jobs nicht mehr, sondern fangen gleich in einem anderen Bereich an. Im besten Fall können sich Menschen mit kreativeren und spannenderen Aufgaben beschäftigen, während sich die KI mit langweiligeren, monotoneren, schwierigeren oder gefährlicheren Aufgaben beschäftigt. Das wäre die ideale Vorstellung. In der Praxis kann es durchaus passieren, dass Menschen durch kurzfristige Profitsucht großflächig ersetzt werden – auch dort, wo es nicht sinnvoll ist. Dadurch könnte die Qualität von Dienstleistungen und Produkten leiden. Und gefährlich könnte es auch sein, weil beispielsweise falsche Informationen verbreitet werden oder sicherheitskritische Aufgaben ohne Menschen abgewickelt werden, bevor die Maschinen noch so weit sind, es alleine zu bewerkstelligen.
KI-Forscher Mugdim Bublin im Gespräch

Wer ist dann verantwortlich? Der Mensch, der die Maschine bedient? Der Mensch, der die Maschine programmiert hat? Der Mensch, der die Regulative gesetzt hat?

Es ist wie bei allen systematischen Ansätzen: Das System ist schuld.

Also niemand.

Alle. Mehr oder weniger. Jeder trägt seinen Teil der Verantwortung. In einem Netz von Beziehungen führt das gesamte Netz zu einer Katastrophe oder zu guten Ergebnissen. Es sind wechselseitige Beziehungen. Es wird immer die Kette verfolgt, bis man zu einem Operator kommt, der vielleicht gerade müde war oder etwas im Moment falsch bedient hat. Und dann ist der auf einmal schuld. Das ist allerdings falsch. Vielleicht war er überlastet und das Management hat die Aufgaben und die Aufgabenlast aus Einsparungsgründen nicht korrekt verteilt. Vielleicht war die Person nicht gut genug ausgebildet. Vielleicht hätte es noch ein weiteres System benötigt. So ist es auch bei künstlicher Intelligenz. Wenn man sie falsch einsetzt, weil man glaubt, dass sie alle Probleme löst, ist auf einmal die KI schuld. Vielleicht sollten dann auch diejenigen, die sie produzieren, sagen, was möglich ist und was nicht. Nehmen wir wieder das Beispiel ChatGPT her: Manchmal werden gute Antworten geliefert, manchmal wird ein Blödsinn angezeigt.

Wie aktuell bei Suchmaschinen. Viele Ergebnisse sind gut, viele sind aber auch nicht passend.

Genau. Auch hier wird ein kritischer Mensch benötigt, der die Ergebnisse kritisch betrachtet und beurteilt. Wenn nun also jemand glaubt, dass Journalisten durch KI ersetzt werden können, ist das falsch. Journalisten können durch KI vielleicht produktiver werden.

Weil sie mehr recherchieren können.

Richtig, oder weil sie vielleicht auch mehr schreiben können. Sie werden aber nach wie vor beurteilen müssen, ob das Geschriebene passt und richtig ist. Wenn Firmen glauben, dass sie Menschen durch billige KI ersetzen können, wird die Qualität darunter leiden, was gefährlich ist. Der Gesetzgeber muss darauf achten, dass es an verschiedenen Stellen eine Qualitätskontrolle durch Menschen gibt.

Ab nächstem Jahr soll es in Österreich, laut Ankündigung von Staatssekretär Tursky, eine KI-Behörde geben.

Es ist auch ein europäisches KI-Gesetz geplant. Alleine durch Regeln wird man aber nicht alles lösen können. Die wichtigste Regel ist, dass es gut ausgebildete Menschen gibt, die die KI kontrollieren. Das ist die beste Gewährleistung. Wenn Menschen nur schnell ausgetauscht werden, ist man ausgeliefert. Ein gutes Beispiel: Chatbots, die Firmen auf ihren Websites anbieten, sind vielleicht gut, um typische Fragen zu beantworten. Wenn es aber um wichtigere oder komplexere Themen geht, würde man als Kunde gerne mit einem Menschen reden. Manche Firmen argumentieren, dass sie so günstig sind, dass sie das nicht bieten können, und man ihr Produkt ja nicht kaufen muss, wenn man damit nicht zufrieden ist.

Sind Hochschulen wie die FH Campus Wien mit anderen Instituten wie beispielsweise der TU Wien im Austausch, um voneinander zu lernen, oder handelt es sich um Mitbewerb?

Wir sind im Austausch miteinander, und ich glaube, dass es auch in Europa mehr Investitionen benötigt, wenn man überlegt, wie viel China oder die USA investieren. In Europa ist es nur ein Bruchteil. In Österreich ist es noch weniger. Viele Entwicklungen kommen ursprünglich aus Europa. Prof. Hinton beispielsweise hat für Google gearbeitet und ist ursprünglich Engländer. Er hat der New York Times ein Interview gegeben und hat darauf hingewiesen, dass künstliche Intelligenz gefährlich sein könnte und man die Forschung dazu vielleicht beenden sollte.

Das haben einige bekannte Persönlichkeiten – auch aus der Tech-Branche – vor Kurzem gefordert. Ist das realistisch?

Glaube ich nicht. Es wird immer irgendjemanden auf der Welt geben, der weiterforscht. Und dann müssen die anderen nachziehen, damit sie nicht überholt werden.

Aktuell soll sich KI alle sechs Monate verdoppeln, bezogen auf ihre Leistungsfähigkeit. Ist das so?

Die Leistung wird immer besser. Die grundlegenden Algorithmen sind allerdings bekannt. Jetzt geht es darum, immer größere Systeme zu bauen. Also vielleicht kein Netz mit 175 Milliarden Neuronen, sondern mit tausendmal so viel. Oder mit der Möglichkeit, mehr Daten, mehr Bilder und mehr Texte zu verarbeiten. 
»Ich habe Angst vor dem Missbrauch dieser Technologie«

Wenn die KI nur das lernt, was wir Menschen ihr geben, macht die KI dann nicht die gleichen Fehler, die der Mensch in der Vergangenheit gemacht hat? Eigentlich müsste damit automatisch etwas Negatives passieren.

Kann durchaus sein.

Haben Sie Angst davor?

Ich habe Angst vor dem Missbrauch dieser Technologie. Lassen Sie es mich so erklären: Als ich bei Siemens gearbeitet habe, haben wir Mobiltelefonie entwickelt. Wir waren extrem stolz. Wenn wir gefragt worden sind, woran wir arbeiten, antworteten wir, dass wir an Kommunikation arbeiten. Wir arbeiteten daran, dass die Menschen besser miteinander kommunizieren können. Wir dachten daran, dass Menschenleben gerettet werden können, weil der Notruf drahtlos erreicht werden kann. Ende der 90er, Anfang der 2000er sind wir dann nicht mit Mobiltelefonen herumgelaufen. Üblich war es damals schon. Wir sind gefragt worden, warum wir jetzt kein Handy dabeihaben. Der Grund war, dass es für alles Mögliche verwendet wurde, nur nicht für wirklich nützliche Sachen. Wir waren damals total enttäuscht. Bei KI habe ich dieselbe Befürchtung.

Trotzdem forschen Sie in dem Bereich. Es scheint Sie also mehr zu interessieren als zu beängstigen.

Stimmt schon. Was mich daran am stärksten interessiert, ist, dass man durch KI mehr über uns Menschen, unser Gehirn und unsere Psychologie erfahren kann. Und das vielleicht sogar über unsere Grenzen hinweg.

Lieblings-

Buch: Narziß und Goldmund (Hermann Hesse) 
Film: Forrest Gump
Song: So far away (Dire Straits) 
Schauspieler/in: Jack Nicholson
Motto: Leben und leben lassen. 
Autor/in: Lew Nikolajewitsch Tolstoi 
Serie: Trautmann
Stadt: Wien
Land: Österreich
Gericht: Melanzaniauflauf 
Getränk: Dunkles Bier

Persönliches Mitbringsel

Ich habe einen sogenannten Sensor Grip mitgenommen. Es handelt sich um eine Erfindung, die wir an der FH komplett entwickelt haben. Sowohl die Neigung des Stifts als auch der Druck am Papier werden gemessen. Wenn man etwas schreibt, werden die Signale gemessen. Mittels KI kann die Schrift analysiert werden – ist etwas richtig oder falsch geschrieben. Gerade bei Kindern ist das sehr nützlich, um Schreibschwierigkeiten zu detektieren. Wenn der Stift beispielsweise rot leuchtet, ist es ein Zeichen für die Lehrer, dass sie sich den Part genauer ansehen sollten. Gelb würde bedeuten, dass es Verbesserungen gibt, und grün, dass alles in Ordnung ist. Wir haben über eine Analyse mit Therapeuten zeigen können, dass die Bewertung durch KI relativ zuverlässig war.
KI-Entwicklung der FH Campus Wien

Schönstes und negativstes Erlebnis der vergangenen Woche

Schönstes: Das waren Aufnahmeprüfungen fürs Masterstudium. Wir haben wieder einige begeisterte Kandidaten kennengelernt. 
Negativstes: Ich habe den ursprünglichen Interviewtermin mit Ihnen verpasst. Das ist mir ehrlicherweise noch nie passiert.

Berufswunsch als Kind

Physiker

Wen wollten Sie immer schon einmal treffen?

Prof. Hinton, Isaac Newton, Albert Einstein

Teenie-Schwarm

Damals kannte ich meine Frau noch nicht.

Café-Bestellung

Holler-Kracherl

Ort des Interviews

Restaurant Hollerei
Die Hollerei befindet sich – passend zum Namen – in der Hollergasse 9 in 1150 Wien. Von außen könnte man das kleine Lokal fast übersehen, doch sobald man durch das Eingangstor gegangen ist, betritt man einen wundervoll begrünten Gastgarten und fragt sich, wie man fast daran vorbeilaufen konnte. Die kleine grüne Oase lädt zum Verweilen ein. Grün ist übrigens nicht nur der Gastgarten, sondern auch die Speisekarte – vegetarisch und vegan.