In dieser faszinierenden Episode spricht Richard Kaan mit Andreas, einem renommierten Professor und Experten für künstliche Intelligenz (KI), über die aktuellen Entwicklungen, Herausforderungen und die Zukunft der KI-Technologie. Andreas gibt Einblicke in die Grundlagen der KI, die Unterschiede zwischen starker und schwacher KI, und diskutiert die potenziellen Anwendungen von Quantencomputern, die KI weiter vorantreiben könnten. Das Interview beleuchtet außerdem die ethischen Überlegungen und die Notwendigkeit regulatorischer Maßnahmen, um die Technologie zum Wohle der Gesellschaft zu nutzen. Richard und Andreas erörtern die Auswirkungen der KI auf ältere Menschen und die Erleichterung ihres Zugangs zu dieser fortschrittlichen Technologie. Andreas teilt seine Vision, wie KI das Leben älterer Personen verbessern könnte und wie wichtig es ist, dass alle Generationen sich aktiv mit KI auseinandersetzen.

#KuenstlicheIntelligenz #KI #Quantencomputer #EthikInDerKI #LebenserleichterungDurchKI #GesellschaftUndKI

Webpage: https://www.richardkaan.com
LinkedIn: @Richard Kaan
Facebook: @Richard Kaan
Instagram: @richard__kaan

Transkript

Andreas (00:00):
Künstliche Intelligenz ist im Prinzip der Anspruch zu versuchen, Maschinen zu bauen, die sich intelligent verhalten, also so wie ein Mensch im Prinzip. Das wäre starke KI.

Richard (00:13):
Heute habe ich einen wunderbaren Gast, der, würde ich sagen, so wirklich am Puls der Zeit ist. Es muss auch für ihn unheimlich spannend sein. Wir kriegen ja nur einen Teil davon mit, aber ein bisschen was können wir hoffentlich heute von Andreas lernen. Danke vielmals, dass du so kurzfristig auch gekommen bist. Vielen

Andreas (00:30):
Dank für die Möglichkeit, hier zu sein. Ich freue mich.

Richard (00:33):
Eigentlich muss ich dich ja ansprechen mit Herrn Professor. So wie ich Professoren mir immer vorgestellt habe, schauen die anders aus als du. Verzeih, aber du bist ein so jugendlicher, flotter Typ. Ich hätte dich nicht als Professor gesehen.

Andreas (00:47):
Danke für das Kompliment. Hört man nicht so oft.

Richard (00:50):
Du hast in Graz studiert, Heilchenphysik, wenn ich das richtig

Andreas (00:54):
Verstanden habe.

Richard (00:54):
Bist dann für einen Postdoc nach Amerika gegangen, Washington University in St. Louis. Exakt. Bist jetzt wieder zurückgekommen ans Universum. Und bist einer der gefragten KI-Experten.

Andreas (01:08):
Genau. Ich bin in meiner Zeit in den USA durch meine Forschung an der Teilchenphysik auf KI gekommen, um die Technologie zu nutzen, um bestimmte Probleme in meinem Feld zu lösen. Und bin seither dabei. Und in den letzten, sagen wir, zehn Jahren oder so, hat sich so unglaublich viel getan in diesem Bereich, dass ich dann halt auch immer mehr in diese Richtung geschwenkt bin. Und seither bin ich dabei und bin absolut glücklich. Und versuche auch eben über Ioneum Research, aber auch durch meine Rolle bei EI Austria, das ist ein Verein mit Sitz in Wien, der KI in Österreich fördert, und versuche hier eben mich möglichst gut einzubringen in all diesen Bereichen. Ich

Richard (01:46):
Gehe noch ein bisschen weiter zurück. Du hast ja Teilchenphysik studiert. Quanten. Ja. Auch. So. Und jetzt, ich verstehe ja ein bisschen was von Technik, allerdings von alter Technik, also alte Autos. Wann immer ich Quanten höre, stehe ich davor und denke mir, ach, das verstehe ich nicht. Weil, vielleicht so, jetzt gehe ich wieder zum alten Auto zurück. Wir wissen das ein bisschen so, beim Auto, die meisten Leute wissen nicht, wie ein Vergaser funktioniert oder ein Verteiler oder ein Differenzial. Und sie fahren alle damit. Ja, absolut. Das heißt, wir müssen oft gar nicht wissen, warum das so ist. Wir müssen es nutzen können. Exakt. Jetzt, wenn ich die Brücke ziehe von Quanten zu Quantencomputer, wenn ich das richtig verstanden habe, ist das ja offensichtlich eine Technologie, die in Zukunft eine wesentliche Rolle spielt, auch ganz speziell für die KI, weil ja diese Computer viel, viel höhere Rechenleistungen haben werden.

(02:39):
Ist das richtig?

Andreas (02:40):
Es gibt hier, und es wird massiv untersucht, welche Synergien es geben kann zwischen Quantencomputern und künstlicher Intelligenz. Quantencomputer können bestimmte Arten von Aufgaben unglaublich effizient lösen, hochparallel, wenn man so will. Allerdings steckt die Technologie noch in einer sehr frühen Entwicklungsstufe, was jetzt die Technologie, die Entwicklung an sich anbelangt. Es gibt hier unterschiedliche Analogien, die Leute im Feld der Quantencomputing so auf populärwissenschaftlicher Basis getätigt haben in der Vergangenheit. Eine zum Beispiel wäre, wenn man die Geschichte des Flugzeugs betrachtet, dann wären wir ungefähr in der Entwicklung von diesen Dingen vielleicht, wo die Wright Brothers waren, ganz am Anfang noch mit einem sehr rudimentären Flugzeug. Eine andere Analogie, die ich kenne hier in diesem Kontext, wäre, wenn man schaut, wo steht es? In der Entwicklung der Quantencomputing, in der Entwicklungsgeschichte der Computer an sich, da wären wir in der Elektronenröhren-Ära noch. Also wir sind sehr, sehr früh und hier wird aber massiv beforscht und hat auch eine bestimmte geopolitische Relevanz, weil die Technologie, also es gibt im Prinzip so etwas wie ein Space Race, es versuchen alle, diese Technologie für sich als erste beherrschbar zu machen.

(03:50):
Es wird unglaublich viel Geld investiert und massiv Forschung betrieben, aber es ist schwierig.

Richard (03:57):
Ich falle immer wieder damit auf, indem ich sage, wir befinden uns in der digitalen Pubertät.

Andreas (04:03):
Okay.

Richard (04:04):
Könnte man das für die Quanten vielleicht auch sagen, über das Wissen darüber, dass offensichtlich so viel in Unordnung ist und wir die Systeme noch gar nicht wirklich verstehen, aber dass es einen unheimlichen Impact haben wird.

Andreas (04:17):
Davon ist auszugehen, also es gibt, um das zu strukturieren, die Antwort jetzt ein bisschen, zum einen müssen wir betrachten, wo steht die theoretische Beschreibung und wo die experimentelle Forschung. Und

Richard (04:29):
Wo steht die Anwendung? Exakt.

Andreas (04:30):
Und das wäre die dritte Schiene, wo sind mögliche Anwendungen, die man auch antizipieren kann. Man kann ja sagen, nehmen wir an, wir hätten heute einen Quantencomputer, der vollkommen fähig ist, alle Probleme technologisch ausgeräumt, der kann alle Probleme lösen, wenn wir sie nur formulieren, diese Frage kann ich stellen und kann dann entsprechend auch nach Use Cases suchen. Aus der theoretischen Beschreibung her sind wir, glaube ich, sehr, sehr gut. Wir haben ein sehr konsistentes mathematisches Rahmenwerk, das es uns erlaubt, diese Modelle zu beschreiben und auch vorherzusagen. Wie sie sich verhalten, das heißt, den Teil haben wir, glaube ich, relativ gut im Griff. Dann kommt der technologische Teil, wie beherrschen wir experimentell diese Systeme und das ist technologisch, man kann sich vorstellen, wenn man auf Längenskalen operiert, die irgendwo 10 hoch minus 10 Metre sind oder 10 hoch minus 9, ein Tausendstel von einem Millionstel von einem Metre.

(05:18):
Ich kann mir das alles nicht vorstellen. Aber wenn sich, klar, dass das technologisch einfach sehr, sehr schwierig ist. Es gibt ja unterschiedlichste Architekturen, die man anschaut, wie man solche Quantensysteme realisieren kann und das wird eben massiv beschäftigt. Aber ich glaube, hier haben wir noch den größten Bedarf. Und das Dritte sind mögliche Anwendungen, die sieht man zum Beispiel in der Kryptografie. Kryptografische abhörsichere Protokolle sind ein möglicher Anwendungsfall. Oder auch Printzahlenfaktorisierung. Moderne kryptografische Schlüssel basieren oft auf Produkten von sehr großen Zahlen. Wofür

Richard (05:50):
Brauche ich das?

Andreas (05:51):
Man könnte damit zum Beispiel gängige kryptografische Verfahren, wie man sie im Telebanking oder für den sicheren Kommunikationsverkehr. Also Verschlüsselung

Richard (06:01):
Verstehe ich, das ist sicherlich ein Anwendungsbereich. Vielleicht darf ich jetzt ein bisschen die Kurve noch kratzen. Wir haben also eine Technologie heute, die uns schon in die Lage versetzt, mittels KI ganz neue Felder zu bearbeiten und auch zu nutzen. Quantencomputer ist eine Zukunft, aber wir sind ja heute schon in der Lage, zunehmend offensichtlich mit rasender Geschwindigkeit, neue Anwendungen der KI zu sehen. Kannst du mir vielleicht in zwei Sätzen sagen, was ist die KI und wo verwenden wir sie heute schon überall? Und im dritten Satz dann, wo werden wir sie in Zukunft verwenden?

Andreas (06:41):
Okay, wow. Du hast drei Minuten

Richard (06:43):
Zeit.

Andreas (06:44):
Okay, was ist KI? Künstliche Intelligenz ist im Prinzip der Anspruch zu versuchen, Maschinen zu bauen, die sich intelligent verhalten. Also so wie ein Mensch im Prinzip. Das wäre starke KI.

Richard (06:56):
Alles ohne Emotionen.

Andreas (06:57):
Ohne Emotionen natürlich. Auch ohne jetzt irgendeinen intrinsischen Gedankengang, der uns als Menschen ja treibt, so wäre es nicht vorhanden. Aber die in der Lage sind, im Prinzip komplexe Probleme in der Welt zu lösen und das aus eigenem Tun, wenn man so will. Also natürlich werden sie instruiert, das zu machen, aber sie können dann Lösungen finden. Das ist der Anspruch, den wir haben. Wo stehen wir mit der KI? Im Prinzip spielt die bereits in alle Lebensbereiche hinein. Auch heute schon, auch wenn wir es vielleicht nicht wissen, aber unser Leben wird doch auch direkt oder indirekt durch diese Mechanismen bestimmt. Ob wir wollen

Richard (07:29):
Oder nicht?

Andreas (07:30):
Ob wir wollen oder nicht. Sei es durch Meinungsbildung, dadurch welche Inhalte wir angezeigt bekommen, wenn wir Medien konsumieren. Sei es welche Empfehlungen wir bekommen, wenn wir Einkäufe online tätigen wollen oder auch welche Werbung wir ausgesetzt werden. Sei es in der Bewertung oder Analyse von bestimmten Daten im Gesundheitsbereich oder auch in anderen Bereichen kommt diese Technologie zum Einsatz. Und wo kann sie noch eingesetzt werden? Denn das KI ist der Limit. Also ich glaube, im Prinzip durchdringt es schon alle Bereiche unseres Lebens und man kann sich dem so gesehen nicht mehr wirklich entziehen.

Richard (08:09):
Jetzt bin ich ja ein bisschen älter und daher auch etwas distanzierter zu bestimmten Technologien. Ich muss jetzt nicht den Herrn Oppenheimer hernehmen oder den Herrn Alfred Nobel etc, dass wir hier Dinge entwickeln, die das Potenzial haben, uns zu entkommen. Wie siehst du das mit der KI? Zweite Frage dann dazu, was machen wir dagegen, wenn meine These stimmt?

Andreas (08:38):
Das nennt man existential risk. Also wirklich, dass KI im Prinzip eine Bedrohung sein könnte, die unsere eigene Existenz bedroht. Das wäre

Richard (08:46):
Die Ultimo-Ratio. Aber das ist vorher ja schon viel früher. Überwachungsstaat, Wahlmanipulation, De-Fakes und solche Sachen.

Andreas (08:53):
Absolut, all diese Dinge. Also ich bin jetzt wirklich an… Ultimo. Ganz hingegangen. Diese Szenarien werden diskutiert und wie du sagst, es gibt auch am unteren Ende dieses Spektrums auch Dinge, die viel einfacher sind und die auch passieren. Das kann jetzt durch De-Fakes angesprochen sein, das kann direkte Manipulation von Inhalten sein und zwar in zunehmend überzeugender technologischer Art, dass man halt wirklich nicht mehr unterscheiden kann, was da los ist. Es gab ja auch bei uns Fälle, ich glaube ein Telefonat des Wiener Bürgermeisters mit Wladimir Klitschko oder ich weiß nicht mehr genau, aber das war fake. Also diese Dinge passieren und haben natürlich massives Manipulationspotenzial. Eingriff in Wahlen, also in demokratische Prozesse, enormes Risiko. Einsatz von KI-Systemen in Hochrisikobereichen. Und da komme ich dann gleich zu den Mitigationsstrategien, die wir in Europa insbesondere verfolgen. Zum Beispiel Credit Scoring. Bekommt jemand einen Kredit oder nicht? Oder… Gesundheitsdaten. Jobs.

(09:48):
All diese Dinge. Und was machen wir in Europa dagegen? Oder was passiert global? Hier ist… Es ist so, dass die unterschiedlichen geopolitischen Player unterschiedliche Strategien verfolgen, wie sie mit der Technologie umgehen. Es gibt das Pro-Innovation-Camp. Also im Prinzip die Länder, die sagen, die gegebene Gesetzgebung ist ausreichend. Die Schweiz macht das so, oder? Erstaunlicherweise. Ja. Es sind einige, es ist die USA tendenziell, die Briten zum Teil, glaube ich, Kanada, die sehen das eher loser. Auf der anderen Seite des Spektrums sind dann die Pro-Regulation. Also die, die sagen, okay, wir brauchen eigene Gesetzgebung. EU. Exakt. Aber auch China zum Beispiel. China reguliert ganz massiv. Halt nach ihrem eigenen Wertesystem. Aber sie regulieren. Sehr interessant. Sehr interessant. Die sind uns hier eigentlich tatsächlich in den Regulatoren sogar voraus gewesen. Waren schneller. Zum Beispiel, wenn man in China KI-Systeme auf den Markt bringen möchte, die eben generative KI-Systeme sind.

(10:50):
Zum Beispiel Sprachmodelle oder eben mächtige KI-Systeme. Muss man sie am Government Assessment unterziehen, also einer Bewertung durch die Regierung, wo sie durchleuchtet werden hinsichtlich des Potenzials, welchen Einfluss sie auf das Meinungsbild in der Öffentlichkeit haben. Das haben sie lieber selber in der Hand. Das haben sie lieber selbst in der Hand, genau. Verstehe. Und hier sind sie im Regulatorium eigentlich Vorreiter gewesen, waren schneller als wir. Wir in der EU haben jetzt gerade vor kurzem den EU-EI-Act beschlossen. Das ist im Prinzip ein Regelwerk, das sicherstellen soll, dass die Technologie im Sinne der Bürgerinnen und Bürger nachhaltig eingesetzt wird. Also, dass es nicht zum Nachteil der Bürger gereicht und dass die Menschenrechte gewahrt bleiben. Und der Zugang ist so, dass man das unterteilt in unterschiedliche Risikoklassen. Es gibt zum Beispiel inakzeptable Risiken, gemäß dem EI-Act. Das wären zum Beispiel Einsatzmöglichkeiten, Social Scoring. Also, dass man sagt, ebenso wie in China, man hat irgendeinen Score und bewertet dann quasi, wie dieses Individuum als Bürgerin oder Bürger sich verhält.

(11:46):
Das wäre absolut… Opportun oder nicht opportun. Exakt. Dann gibt es zum Beispiel Hochwertigkeit. Das wären Hochrisikoanwendungen. Das wäre jetzt der Einsatz von KI-Systemen in der Medizin, in der medizinischen Diagnostik. Oder in der Bewertung, ob ich jetzt eine Bewerberin oder einen Bewerber für den Job haben möchte oder nicht. Das wären Hochrisikoanwendungen. Dann gibt es eine mittlere Risikostufe. Das wären Chatbots und solche Dinge. Und dann gibt es niedrige Risiken. Das sind halt, keine Ahnung, Spamfilter. Ist

Richard (12:13):
Wurscht.

Andreas (12:14):
Genau.

Richard (12:14):
Sozusagen. Aber, jetzt verzeih, wenn ich unterbreche. Ja, bitte. Wenn wir in der EU, und wir sind ja als Global Player… Jetzt hätte ich gesagt, bald ein Würstel. Etwas flapsig ausgedrückt. Ja. Wenn aber die Amerikaner oder der angelsächsische Bereich, wenn man so sagt, das so ganz anders sieht als wir. Was hilft uns dann unser AI-Act?

Andreas (12:36):
Das ist eine richtige Beobachtung. Also Innovation. Hier zwei Dinge dazu. Global gesehen sind die Innovationstreiber die USA maßgeblich. Und es sind nicht, wie es früher eigentlich war, Universitäten. Sondern es sind die großen Tech-Konzerne. Die die Innovation treiben.

Richard (12:51):
Vor allem auch, weil die die Daten haben. Exakt. Absolut.

Andreas (12:53):
Absolut. Die sind finanziell und auch ressourcentechnisch in der Lage. Und haben auch die Talente bei sich gebündelt, um diese Forschung entsprechend voranzutreiben. Wir in Europa haben eine andere Situation. Also wir haben hier in dem Feld jetzt dann nicht so viel Momentum. Allerdings haben wir auch exzellente Forschung. Und jetzt durch das Regulatorium werden wir uns neu ausrichten müssen. Ich glaube, es macht im geopolitischen Kontext absolut Sinn. Dass wir uns so aufstellen. Warum? Weil wir wirklich sicherstellen, dass die Technologie zum Wohle unserer Bürgerinnen und Bürger eingesetzt wird. Wenn man das nicht macht, wird es zu ihrem Nachteil gereichen. Und wer weiß, was es mit ihnen anrichtet. Also es macht schon absolut Sinn, diesem Regelwerk zu unterwerfen. Technologisch die große Herausforderung ist dann, dass die Technologie mit den Anforderungen der Regulatoren Schritt hält. Also wie kann die Technologie so bauen, dass zum Beispiel Nachvollziehbarkeit in Entscheidungen gegeben ist.

(13:46):
Das ist per se nicht intrinsisch vorhanden in diesen Modellen. Und ist technisch sehr schwierig. Also wird sich die Forschung in diese Nische setzen. Und Europa wird dann wahrscheinlich Technologie entwickeln. Neue Technologie, einzigartige Technologie, die eben mit dieser Ausrichtung harmoniert.

Richard (14:04):
Was hältst du von einer These, die mir jetzt gerade einfällt, dass die USA früher oder später auch Regulative machen können oder müssen, bevor ihnen das Ganze entgleitet. Allerdings zusätzlich mit der Gefahr eines großen, nennen wir es Kollateralschaden, der inzwischen schon passiert sein wird.

Andreas (14:25):
Ja, das ist, ob sie es müssen, du meinst zum Beispiel auf gesellschaftlichen Druck hin. Weil

Richard (14:33):
Wir es kulturell nicht aushalten. Nehmen wir ein ganz einfaches Beispiel Privatsphäre. Das hat jetzt mit der KI im Prinzip noch nichts zu tun. Aber es hat mit einer digitalen Durchdringung zu tun. Der gläserne Mensch. Und ich mache daheim meine Klotür zu. Verstehst? Nicht, weil ich etwas verstecken will, sondern weil ich eine Privatsphäre haben will. Und heute mit KI-Mitteln hast du ja viel mehr Möglichkeiten, die Privatsphäre komplett aufzulösen. Halten wir das als Gesellschaft aus?

Andreas (15:00):
Okay, das ist eine spannende Frage natürlich. Und das haben wir noch gar nicht angesprochen. Es gibt jede Menge ethische Aspekte und Implikationen vom Umgang, die aus dem Umgang mit dieser Technologie kommen. Auch zum Beispiel, wenn wir uns, keine Ahnung, wenn wir uns die Technologie jetzt zu eigen machen, um sie zum Beispiel, ich weiß nicht, es gibt Grieftag zum Beispiel. Was ist das bitte? Das ist Technologie, wo es darum geht, dass man verstorbene Menschen virtuell erfasst.

Richard (15:26):
Ja klar.

Andreas (15:27):
Und wirklich in all ihren Facetten. Zum Beispiel, man kann ihre Stimme, wie sie ausgesehen haben.

Richard (15:33):
Hollywood kann aufstehen lassen, alle verstorbenen Filmstars.

Andreas (15:35):
Also man könnte, keine Ahnung, ein Sequel machen mit James Dean zum Beispiel, der nur wenige Filme gedreht hat. Oder sowas. Das ist technologisch im Prinzip schon möglich. Und wenn man jetzt eine liebe verstorbene Person hat, man nutzt dann so ein Grieftag-Unternehmen, der es schon mehrere gibt, lasst diese Person virtuell wieder auferstehen, spricht mit der, interagiert mit der täglich, mit der selben Stimme, mit dem selben Aussehen. Was macht es aus ethischer Sicht mit uns? Was macht es mit dem Loslassen, das ja auch zum Leben dazugehört? Also da sind viele Implikationen und Fragen, die jetzt da nicht notwendigerweise technologische sind, sondern die Fragen sind, was macht es mit dem Menschen an sich? Und das ist eben einer der Gründe auch, warum der AI-Act aus meiner Sicht eine sinnvolle Maßnahme ist, weil eben auch Menschenrechte, ethische Aspekte berücksichtigt werden. Es gibt das Schlagwort von Ethical AI, also wie macht man KI ethisch?

(16:23):
Und es sind hier ongoing, also es laufen hier Diskurse aus sehr heterogenen Expertengruppen, wo Leute aus den Sozialwissenschaften, aus den Rechtswissenschaften, aus der Technologie zusammensitzen und sich zu diesen Themen austauschen. Und das ist wichtig. Und das ist auch einer der Gründe, warum sich eigentlich alle Menschen, Bürgerinnen und Bürger auf die Technologie einlassen sollten und aktiv versuchen sollten, sich damit auseinanderzusetzen. Wir

Richard (16:47):
Entkommen ihm ja nicht. Es ist einfach Fakt. Genau. Man kann nicht sagen, der Himmel ist grün, er ist blau, meistens zumindest. Exakt. Trotzdem wird die Frage immer noch sein, werden andere Gesellschaften es vielleicht ähnlich sehen wie die EU? Ansonsten sehe ich die große Gefahr, dass Amazon, Microsoft, wie immer sie heißen, die ja heute in die EU hineinarbeiten. Ja, ja. Das ist eine ganz andere Voraussetzung in Arbeiten. Die werden uns überlassen.

Andreas (17:17):
Ja, das lässt sich in der Form natürlich schwer vorhersagen, was da passiert, weil das System so komplex ist und weil die Gesamtlage so heterogen ist. Wir haben wirtschaftliche Interessen. Wir haben Märkte, die zu bedienen sind und die es auch gibt. Wir haben Personen, die sehr große Datenmengen kontrollieren und mehr über unsere Bürgerinnen und Bürger wissen als wir selbst. Und natürlich auch haben wir andere Wertesysteme, weil wir vorher mit China diskutiert haben. Ich meine im Prinzip, wenn man von außen auf die Welt schaut, völlig wertneutral, vielleicht als nicht menschliches Wesen, einfach hypothetisch, dann würde ich Wertesystem A nicht Wertesystem B vorziehen, weil ich keine Ethik habe. Wir

Richard (17:54):
Kennen es mit den Menschenrechten. Diskussion, die völlig unterschiedlich ist. Exakt. Da haben wir ganz andere Zugänge

Andreas (17:59):
Dazu. Ganz genau. Und deswegen ist es auch schwer zu sagen, was jetzt in Population A Europa zum Beispiel funktioniert, wird nicht notwendigerweise in China funktionieren, weil die eben ganz intrinsisch andere Wertesysteme haben, andere Kultur haben, anderes kulturelles Verständnis

Richard (18:11):
Haben. Ich würde gar nicht glauben, dass die Amis so eine ganz andere Kultur haben. Aber wir sehen es in sehr vielen Detailfällen. Darf ich jetzt aber noch zu den älteren Menschen gehen, die ja mein Hauptfokus sind. Wie weit wird die KI heute das Leben der Älteren beeinflussen und was würdest du sagen, wie sollen sie sich am besten dem nähern?

Andreas (18:32):
Hier sage ich drei Dinge. Der erste Punkt, und daraus mache ich zwei, wie bestimmt es das Leben der Älteren? Hier sehe ich zwei Dinge. Der erste Aspekt ist, wie können dritte Personen oder Organisationen KI einsetzen, um das Leben von älteren Personen zu verbessern oder abzusichern, zu erleichtern? Und der zweite Aspekt, welche Auswirkungen KI auf ältere Personen hat, ist, was können ältere Personen selbst selber tun, um die Technologie für sich zu nutzen? Und der dritte Punkt wäre, wie können sie sich dem Thema annähern? Vielleicht jetzt zum ersten zurück, was können dritte Personen, was kann dritte machen, was machen Organisationen? Hier kann man zum Beispiel für ältere Personen, die alleine leben, Technologie schaffen, die der Person das Leben erleichtert oder sicherer macht, indem man zum Beispiel aus Daten, die das Verhalten der Person irgendwie abbilden, feststellen kann, okay, der Person geht es jetzt schlechter, hier ist es wahrscheinlich gut, dass man medizinisch irgendwie eingreift.

(19:32):
Das wäre jetzt einfach nur ein beliebiges Fallbeispiel. Vor

Richard (19:35):
Allem auch, es gibt ja immer mehr und mehr single ältere Leute. Da ist natürlich eine Erkennung, weil wenn du keinen Partner, keine Partnerin hast, die sagt, du komm, pass auf, ich muss was tun, geh zum Arzt, etc, ist es natürlich wichtig, dass auch hier Dinge erkannt werden.

Andreas (19:48):
Exakt, dass man zum Beispiel einen medizinischen Notfall vorliegen hätte oder vielleicht auch schon vor, bevor überhaupt ein Notfall eintritt, dass man hier eingreift. Aber natürlich, wir haben gerade vorher diskutiert, medizinische Anwendung, Hochrisikobereich, das heißt, hier muss man natürlich dann entsprechend auch sicherstellen, dass die Technologie so aufbereitet ist, dass sie tatsächlich auch robust und erklärbar funktioniert und der Person nicht zum Nachteil kommt.

Richard (20:09):
Und sicher funktioniert, ja.

Andreas (20:10):
Genau. Dann auch, weil wir bei Einzel- oder Personen gesprochen haben, die alleine leben, was kann die Person jetzt selbst tun? Man kann mit KI sehr viel machen im Sinne von, man könnte zum Beispiel sich einen virtuellen Chatbot kreieren, mit dem man interagiert permanent, der auf Ereignisse Bezug nehmen kann, die man so erlebt hat, mit dem man auch gefüttert hat, aufs eigene Leben Bezug nehmen kann und so die eigene Situation versteht. Man kann es wie ein Personal Assistant, also ein Persönlicher, einen Persönlichen, einen Assistenten nutzen. Also

Richard (20:41):
Tamagotchi auf neu.

Andreas (20:43):
Viel mächtiger als das, weil das System kann einem tatsächlich sinnvolle Empfehlungen geben, kann einem erinnern, zum Beispiel, nimm deine

Richard (20:51):
Medikamente. Exakt.

Andreas (20:52):
Vergessen, die Medizin zu nehmen, zum Beispiel, für solche Dinge. Oder hilf mir, eine Einkaufsliste zu erstellen oder hilf mir, ein neues Kochrezept auszuprobieren, all diese Dinge. Aber du

Richard (21:00):
Bist transparent, sonst geht es nicht.

Andreas (21:02):
Ja, also da sind wir eben noch nicht ganz dort, was transparent, ich meine, du meinst jetzt, du gibst deine Daten dabei. Ich als Mensch,

Richard (21:08):
Weil ich werde beobachtet, ich bin gläsern. Absolut.

Andreas (21:12):
Das opfert man hier natürlich, aber man bekommt auch viel zurück. Also es ist eine Abwägung, die man irgendwie treffen muss. Und das Dritte ist, wie kann man da hineinkommen? Im Prinzip, fantastisch wäre, ich meine, toll, hier ist jetzt zum Beispiel dein Podcast, vielleicht hören es Leute, die selbst in der Situation sind und beginnen, sich damit auseinanderzusetzen. Es ist im Prinzip so einfach, wie auf eine Website zu gehen, sich zu registrieren und man kann beginnen, mit den Systemen zu interagieren. Wenn unter deinen Hörerinnen im Podcast zum Beispiel auch Personen sind, die in der Pflege tätig sind, also die mit älteren Personen zu tun haben, ich glaube, diese Personen und auch Ärztinnen und Ärzte könnten Schlüsselpersonen sein, die man in der Technologie schulen könnte, insbesondere im Hinblick darauf, wie können sie älteren Personen das beibringen und den Zugriff

Richard (21:57):
Ermöglichen. Also so quasi, ihre Präsenz ist nicht notwendig, sehr wohl aber ihr Zugang und ihr Wissen. Ja. Und sie können quasi fern agieren und dann, indem sie auch mit diesen Menschen interagieren dann.

Andreas (22:11):
Das wäre eine Möglichkeit, aber auch ganz wirklich direkt im Umgang mit den Personen, dass man ihnen zeigt, durch Schulungen, wie auch immer, wie funktioniert die Technologie, wie kannst du sie ganz konkret für dich einsetzen. Und ich glaube, es gibt glaube ich oft bei solchen neuen technologischen Entwicklungen eine gewisse Hemmschwelle, sich damit dann wirklich auch ganz konkret auseinanderzusetzen. Vor allem für ältere

Richard (22:32):
Leute natürlich. Ich

Andreas (22:33):
Beobachte durch die Bank, auch bei Jüngeren gibt es das zum Teil, also vielleicht nicht bei den ganz Jungen, eine gewisse Berührungsangst, sich dann darauf einzulassen. Und da braucht es dann aber nicht viel. Also man setzt sie wirklich dann vielleicht idealerweise mit einem kleinen Personenkreis zusammen und spielt diese Dinge gemeinsam durch und dann kann so etwas funktionieren.

Richard (22:53):
Also ich glaube, das trifft uns Menschen ja immer. Wir wollen ja unseren Komfortbereich nicht verlassen. Ja. Und das passiert jetzt natürlich. Das wird es wohl

Andreas (23:02):
Sein,

Richard (23:02):
Ja. Und wenn wir hingeführt werden und wir uns gezeigt werden, das tut nicht weh, sondern das hat für dich diesen Vorteil. Wir müssen natürlich auch ein bisschen natürlich viele Nachteile dann einfach nicht zur Kenntnis nehmen, weil wir kennen uns da ja auch zu wenig aus. Ja. Aber wenn wir die Vorteile Schritt für Schritt gezeigt bekommen, gehört bekommen, also eigentlich müsste es ja so etwas geben jetzt dann wie KI-Workshops für ältere Menschen.

Andreas (23:23):
Absolut. Ich bin auch gerne bereit, falls du so etwas veranstalten möchtest, da das mitzumachen. Ich mache sehr viele Talks, Workshops dieser Art, aber ich habe noch nie persönlich jetzt so einen Workshop mit einer spezifischen Zielgruppe von älteren Personen gemacht. Also, eher immer technisch lastiges Personal. Vielleicht

Richard (23:41):
Schaffen wir so etwas, lieber Andreas. Sehr gerne. Mir schwirrt der Kopf, aber ich habe unheimlich viel Information bekommen von dir. Danke vielmals. Vielen Dank. Vielleicht noch eine kurze Frage. Wo siehst du dich selber in fünf Jahren? Ich

Andreas (23:52):
Bin jetzt gerade bei Ioneum Research angekommen. Ich habe eine fantastische Gruppe an wirklich sehr, sehr motivierten und hochtalentierten Individuen. Ich bin dort absolut glücklich und wir versuchen jetzt auch für uns diese, wir sind seit vielen Jahren oder Ioneum Research ist seit vielen Jahren eine Technologie und was ich hier halt möchte, ist es noch breiter auszubauen und hier in die Breite zu wirken. Auch mit meiner Rolle bei AI Austria. Das heißt, es bleibt spannend und wird wahrscheinlich auch dadurch bestimmt, wie sie die Technologie in fünf Jahren weiterentwickelt hat und ich bin sehr gespannt zu sehen, wo es hingeht.

Richard (24:23):
Lieber Andreas, wenn jemand eine Frage hat, eine spezifische, du hast vorher sehr nett angedeutet, man darf dich fragen. Ich hoffe, du wirst nicht überrannt ganz prinzipiell, aber wohin können sich die Menschen wenden?

Andreas (24:34):
Ich bin über LinkedIn erreichbar. Vielleicht kannst du irgendwo diese Daten anhängen.

Richard (24:42):
Wir werden es natürlich einblenden, ja. Ich

Andreas (24:44):
Sage das auch immer am Ende meiner Vorträge dazu und das melden sie auch immer wieder Leute. Es ist wichtig, dass wir uns als Gesellschaft wirklich auf den Diskurs einlassen und austauschen in all den unterschiedlichen Rollen, die wir in der Gesellschaft haben. Ich jetzt mehr aus einer technisch Expertenperspektive, aber natürlich, ich tausche mich sehr, sehr gern mit allen Personen aus den unterschiedlichsten Lebenswegen aus. Es ist immer sehr, sehr spannend, neue Menschen kennenzulernen und eben auch deren ganz unterschiedlichen Blickwinkel auf die Dinge zu sehen. Man lernt sehr viel davon und es ist einfach wichtig und Teil des Ganzen. Also bitte sehr, sehr gerne jederzeit bei mir melden.

Richard (25:17):
Wunderbar. Also ich hoffe, Sie haben genauso viel gelernt wie ich. Andreas ist ein Paradebeispiel für mich, für jemand, der sehr tief in seinem Metier unterwegs ist, auf der anderen Seite aber auch sehr offen nach außen umgeht damit. Ich hoffe, es hat Ihnen gefallen. Nützen Sie bitte alle Möglichkeiten von Liken und alle Buttons, die Sie drücken können. Mich finden Sie sonst unter richardkahn.com und bis zum nächsten Mal. Alles Gute. Danke sehr.

Similar Posts