AB WANN IST KI INTELLIGENT?

AB WANN IST KI INTELLIGENT?

VON TEMEL KAHYAOGLU
(Veröffentlicht in THE GAZETTE Ausgabe 01 im November 2022)

In diesem Interview sprechen wir mit Alexander Thamm, Gründer, Berater, Autor und ausgewiesener KI- und Datenspezialist, darüber, was KI überhaupt ist, wie sich die Technologie entwickelt und wie wir sie für uns nutzen können. 

DALL-E, GPT-3, Midjourney – in den vergangenen Monaten überschlugen sich die Schlagzeilen über neue AI-Plattformen, mit denen scheinbar jeder zum Künstler oder Autor werden kann. Solche News schüren die Mystifizierung von künstlicher Intelligenz, die oft jedoch nichts anderes ist als einfache, von Programmierern parametrisierte, eventgesteuerte Automatisierungsketten. Die breit gefasste und noch immer schwammige Definition von KI und die Zurückhaltung von Gesetzgebern sorgen zusätzlich für Verwirrung. Zeit, um endlich Licht ins Dunkle zu bringen – wir sprachen mit jemandem, der es wissen muss: Alexander Thamm ist Gründer von [at], einer Beratungsfirma für digitale Transformation durch Daten und KI, Mitinitiator des Münchener DATA festivals, Gründungsmitglied des KI-Bundesverbands und Buchautor.

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Interview mit Alexander Thamm, Gründer von [at]

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Was ist künstliche Intelligenz und ist sie dazu fähig, fühlende Wesen zu erschaffen?

Die Definition, was KI eigentlich ist, ist gar nicht so einfach – tatsächlich haben wir im Bundesverband bereits etwa zwei Jahre darüber debattiert und sind uns diesbezüglich noch immer nicht zu 100 Prozent einig. Künstlich bedeutet zunächst einmal „nicht menschlich“. Bei der Intelligenz ist das schon schwieriger, da der Intelligenzbegriff als solcher bereits nicht vollständig erklärt ist. Wir orientieren uns bei der Definition am sogenannten „Turing-Test“. Dabei wird das Intelligenzniveau einer KI daran gemessen, ob ein Mensch, wenn er mit der Maschine in Interaktion tritt, merkt, dass es eine Maschine ist oder nicht.

Rein praktisch betrachtet, gibt es jedoch drei Ausbaustufen von künstlicher Intelligenz. Fühlen, Intuition, Träumen und Emotionen – das ist, was wir als „starke KI“ oder „Artificial General Intelligence“ bezeichnen, und davon sind wir immer noch sehr weit entfernt. Das grundlegende Problem dabei ist, dass wir immer noch nicht ganz verstanden haben, warum wir als Menschen überhaupt träumen, wie Intuition und Kreativität neurowissenschaftlich tatsächlich funktionieren. Was die meisten Menschen meinen, wenn sie von KI reden – und das ist der Grund dafür, weshalb ich den Begriff schon fast vermeide – ist eigentlich „Machine Learning“. Machine Learning ist die „schwache“ Variante von KI. Hier geht es darum, eine konkrete kognitive Aufgabe durch eine Maschine lösen zu lassen, und darin besteht auch aktuell der große Hype. Das funktioniert im Grunde so: Der Programmierer baut den Algorithmus, der nichts anderes ist als eine Gleichung. Die Parameter dieser Gleichung, die beispielsweise die Steigung der Kurve oder Linie bestimmen, werden von der Maschine auf Basis der Daten definiert, mit denen sie zuvor gefüttert wurde.

Die einfachste Art von KI sind regelbasierte Systeme – da hat der Mensch nicht nur den Algorithmus definiert, sondern auch die dazugehörigen Parameter. Ein Beispiel dafür sind Fahrerassistenzsysteme.

Zum Thema des Fühlens: Wir Menschen sind sehr schnell dazu verleitet, zu denken, dass solche Technologien übernatürlich oder magisch sind, weil wir eben gerne an Wunder glauben. Wenn wir etwas nicht verstehen oder begreifen, wie etwas funktioniert, dann dichten wir eben auch mal schnell einer Maschine Emotionen an. Das gilt besonders, da die meisten Menschen ihre ersten Berührungspunkte mit dem Thema in Science-Fiction-Filmen hatten. Das war schon so zu meinen Anfangszeiten bei BMW, als das Ganze noch „Data Mining“ hieß. Damals waren die Unternehmen auch schon fasziniert von der Idee, durch eine KI problemlos an entscheidungsrelevante Erkenntnisse oder Business Rules zu gelangen – und das funktioniert natürlich nicht.

Die Eingangsfrage stammt von der künstlichen Intelligenz GPT-3. Die Aufgabe war, eine clevere Frage zum Thema KI zu stellen. Hat sie einen guten Job gemacht?

Das hat sie auf jeden Fall: Man merkt der Frage zum Beispiel nicht an, dass sie von einer Maschine stammt – damit handelt es sich für uns um „echte“ KI. GPT-3 ist natürlich schon eine bemerkenswert weit entwickelte Plattform, genauso wie die Bild-KIs, die im Moment so populär sind, wie zum Beispiel Midjourney. Es ist wirklich faszinierend zu sehen, was diese Plattformen heute schon können. Wenn man aber weiß, was dahintersteckt, verliert jede Technologie schnell ihren Zauber, und man erkennt, dass diese Art von Technologie im Grunde noch in den Kinderschuhen steckt. Tatsächlich ist KI heute da, wo das Internet in den 1990er-Jahren war – etwa drei bis fünf Jahre vor der Dotcom-Blase.

Wir haben ihr noch ein paar weitere Fragen gestellt und versucht, sie Artikel schreiben zu lassen, die für diese Ausgabe bereits erstellt worden waren. Heraus kam – um ehrlich zu sein – eine ganze Reihe an Fake News. Sind das ernst zu nehmende Risiken in der ohnehin verzerrten Onlinerealität, sollten derlei Tools gesellschaftsfähig werden?

Ja, auf jeden Fall. Ein Journalist würde auch immer erst einmal eine verlässliche Primärquelle für seine Artikel suchen, denn die Quellen sind maßgeblich für die Qualität seiner Arbeit. Diese Quellen sind Informationen, und die wiederum bestehen aus Daten. Letztendlich funktioniert das mit der KI genauso – nur eben skalierbar und auf Knopfdruck. Und das ist genau das, wo es dann gefährlich wird: Es wird einfach sehr bequem, Fehler zu machen. Die vorhin angeschnittene Parametrisierung basiert immer auf den Daten, mit denen die Maschine angelernt wird. Nach dem „Garbage in Garbage out“-Prinzip kommt es also darauf an, mit welchen Daten die Maschine trainiert wird. Beispielsweise gab es mal diesen Twitter Bot, der mit der Zeit immer rechtsradikaler wurde, weil er eben mit den entsprechenden Inhalten gefüttert wurde. Daher war der Vergleich vorhin mit der Technologie in den Kinderschuhen gar nicht so falsch: Auch Kinder wiederholen eher unreflektiert das, was ihre Eltern sagen, und hinterfragen das gar nicht.

Aus diesem Grund muss man sehr vorsichtig mit dem sein, womit man die KI füttert, und man muss im Rahmen von Data Lineage oder Data Governance Regeln definieren. Das ist gerade auch in Europa ein sehr großes Thema, insbesondere im Hinblick auf die Erklärbarkeit von KI. Hier entsteht dann aber gleich die nächste Herausforderung, denn Regeln und menschliche Entscheidungen sind auch nicht immer erklärbar.

Das wirft schnell die Frage nach der Verantwortlichkeit auf. Es wird immer wieder auch darüber gesprochen, dass der Einsatz von KI Menschen schaden oder diskriminieren könnte. Welche Initiativen gibt es in diesem Bereich, dem entgegenzuwirken? Wer fühlt sich überhaupt dafür in der Verantwortung, solche Regeln zu definieren?

Das ist eine sehr gute, aber auch eine sehr schwierige Frage, und für mich tatsächlich auch ein Stück weit Motivation für das, was ich tue. Nehmen wir das Beispiel vom autonomen Fahren: Wer ist schuld an einem Unfall? Der Fahrer kann es eigentlich nicht sein, denn der fährt ja nicht. Auf der anderen Seite hätte er die Verantwortung, einzugreifen. Der Data Scientist, Data Engineer oder Machine Learning-Engineer baut den Algorithmus und damit die Infrastruktur, aber eben nicht die Parametrisierung. Eine Parametrisierung würde dann beispielsweise so aussehen, dass das Auto lieber einen Fuchs überfährt, als in den Gegenverkehr zu lenken. Derjenige, der die Daten der Maschine zufüttert, muss darauf achten, dass diese Daten keinen Bias haben. Wie schwierig das ist, sehen wir an einer ganzen Reihe von KI-Tools wie der Gesichtserkennung, die in erster Linie von weißen männlichen Programmierern gebaut wurden und aufgrund der mangelhaften Datenlage beim Anlernen bei Dunkelhäutigen und Frauen eine höhere Fehlerquote aufweisen.

Aber wer soll hier über die Ethik wachen und urteilen, ob und was in der Empirie falsch oder richtig läuft und welche Ausreißer aus der Gleichung herausgenommen werden? Am Ende kommst du sehr schnell zu Fragen in unserer Gesellschaft, über die wir uns ganz grundsätzlich Gedanken machen sollten. Das ist eigentlich auch genau der Weg, den wir Experten – auch im Bundesverband – sehen, wie wir uns mit dem Thema auseinandersetzen sollten. Wir sollten nicht eine Technologie in ihrer Basis regulieren, sondern uns um die Anwendungsfälle kümmern. Man versucht, sich in der EU mittlerweile über den sogenannten „AI Act“ diesem schwierigen Thema anzunähern, scheitert aber aktuell bereits an der Definition von KI. Sie soll tendenziell die gesamte Breite abdecken, würde so aber schnell jeden einfachen Programmcode miteinschließen.

Wir als Gesellschaft müssen letzten Endes verantwortungsbewusst mit KI umgehen, so wie wir das eben auch mit dem Internet und mit allen anderen Dingen tun.

Du beschäftigst dich schon viele Jahre intensiv mit Big Data, Data Science und künstlicher Intelligenz, ihren Potenzialen und ihrer Rolle für die Wirtschaft. Erzähl uns etwas mehr über dich – was hat dein Interesse an diesen Themen geweckt?

Angefangen hat alles in meiner Jugend. Ich war damals sehr verliebt und mit meiner Familie und unseren Freunden in einem Minicamper unterwegs in den USA. Um Kontakt zu meiner Freundin zu halten, musste ich von einem Internetcafé ins nächste ziehen, weil telefonieren zu teuer war. Da habe ich dann gemerkt, wie wenig es eigentlich braucht, um so ein Internetcafé zu betreiben, und das habe ich dann einfach zurück zu Hause repliziert. Nach zwei Jahren – da war ich 18 – war dann schon wieder Schluss mit meinem ersten Business, weil da dann jeder Internet zu Hause hatte. Mein Faible für Technologie habe ich aber immer behalten, von Videospielen über erste Programmierübungen bis hin zur Reparatur von Computern – das hat alles schon früh zu Hause im Keller angefangen.

Daher war mir eigentlich schon früh klar, dass ich etwas mit Technologie machen will. Ich habe dann BWL, Psychologie und Statistik studiert, und da kam dann das Thema mit den Daten auf und ich hatte das Glück, dass ich bei BMW ein Praktikum machen konnte. BMW war eines der wenigen Unternehmen, die sich zu dem Zeitpunkt schon intensiv mit dem Thema auseinandergesetzt hatten. Später habe ich als Freiberufler bei BMW gearbeitet, und da ich dann recht schnell eine GmbH daraus machen musste, ist die Alexander Thamm GmbH – oder [at] wie wir heute sagen – entstanden. Wir hatten damals vor zehn Jahren das Glück, mit BMW als Kunden und Partner und tollen Unis wie der Universität in Ingolstadt, wo ich angefangen hatte, zu promovieren, ein fantastisches Ökosystem für das Thema zu haben.

Ist der Austausch mit einem solchen Ökosystem heute immer noch relevant für euch?

Ja, auf jeden Fall – eine Zeit lang habe ich auch bei einem der „Big Four“-Unternehmensberatungen gearbeitet, und ich fand es immer furchtbar, wie die ihr Wissen horten, anstatt auf ein Ökosystem zu setzen. Das hatte immer riesige Ineffizienzen zur Folge, und da habe ich mir geschworen, dass ich wenn ich mal Beratung mache, das ganz anders angehen werde. Klar, der Markt wächst selbst jetzt in der Krise um 50 Prozent, da lässt sich das leicht sagen – vielleicht spreche ich aber anders darüber, wenn es mal nicht mehr so ist.

Wie erlebst du die Entwicklung von KI im europäischen Raum in den vergangenen Jahren?

Ich denke, „AI made in Europe“ hätte aufgrund der Vertrauensbasis, die mit den europäischen Werten aufgebaut würde, schon sehr viel Potenzial. Im Moment haben wir da leider keine allzu großen Exportschlager, wir kaufen KI eher aus den USA oder aus China ein, und versuchen dann, diese zu regulieren. Das haben wir ja bereits beim Thema Daten mit der DSGVO versucht und gesehen, was das für enorme Schwierigkeiten für kleinere Betriebe oder Ärzte mit sich brachte. Daher muss man eigentlich genau darauf achten, dass diejenigen, die diese Gesetze mitbestimmen, das Thema fachlich und auch praktisch in der Umsetzung verstehen. Das Problem ist, dass wir heute oft dieselben Leute in den KI-Räten sehen, die schon bei der DSGVO mit an Bord waren.

Kritisch ist auch, dass wir jetzt schon etwas regulieren wollen, von dem wir noch lange nicht wissen, was eigentlich die Potenziale und Möglichkeiten sind. Da stellt sich natürlich die Frage, ob wir mit dieser „German Angst“ nicht die Innovation in Europa abwürgen und besser erst mal abwarten und schauen sollten, welche Probleme tatsächlich auftreten, und diese dann regulieren. Natürlich sind Regulierungen gut und wichtig – aber es muss eben praktikabel und angemessen sein und kein angstgetriebenes Negieren jeglicher Innovation.

Wir haben bei uns im Bundesverband rund 500 KI-Start-ups, und es sind wirklich tolle Firmen dabei. Celonis und DeepL sind natürlich gute Beispiele für sehr erfolgreiche KI-Unternehmen, und es gibt auch einige Beispiele von traditionellen deutschen Unternehmen, die KI bereits sehr effektiv einsetzen. Das Problem ist, dass die Start-ups, wenn sie eine gewisse Größe erreicht haben, für ausländische Investoren, die meist risikoaffiner sind, sehr attraktiv werden, und sie bekommen von denen eine viel höhere Bewertung und damit ganz andere Möglichkeiten als bei uns hier in Europa.

Natürlich ist es gerade im Fall von KI-Unternehmen wichtig, schnell zu wachsen, um schnell große Datenmengen zu sammeln. Je mehr Daten vorhanden sind, desto besser kann die KI trainiert werden und desto mehr Nutzer kommen auch hinzu – was letztlich wieder zu mehr Daten führt. Da sind wir hier in Europa noch ein bisschen zu zögerlich, was unser Investitionsverhalten angeht. Das ist ein Problem, weil die US-Investmentfirmen die aussichtsreichen Kandidaten einfach vom Markt abschöpfen. Und das, obwohl wir ein tolles Ökosystem haben aus Universitäten, Forschung und Entwicklung, ein aktives Patentwesen, viele führenden Experten – wie zum Beispiel Professor Schmidhuber, der die neuronalen Netze mit erfunden hat – und auch eine tolle Start-up-Kultur in dem Bereich. Allein das Scaling der Unternehmen bekommen wir leider noch nicht so gut hin.

Es gibt aber nicht nur die Start-ups – auch der Staat kann natürlich in die Themen investieren. Da ist China das beste Beispiel, das wiederum mit seinem Social Score von den gesammelten Daten profitiert, um mit ihnen die Bürger zu überwachen. Die staatliche Investitionssumme in Deutschland ist damit natürlich nicht vergleichbar. In Europa hast du eine starke Verteilung von Macht – es gibt viele Firmen und einen starken Mittelstand, der sogar aus vielen Weltmarktführern besteht. Die Frage wird sein, ob wir diese traditionellen Firmen – ähnlich wie beim Internet damals – in dieses neue Zeitalter der KI gehievt bekommen oder nicht.

Das ist auch der Grund, warum ich beispielsweise in Prodport investiert habe – ich glaube einfach daran, dass diese Unternehmen Produkte brauchen werden, in denen die Technologie wie KI schon drinsteckt. So wie es früher noch sehr aufwendig war, Webseiten zu programmieren, und wie einfach es heute ist, mithilfe von Shopify oder Wordpress Webseiten aufzusetzen, so wird auch KI immer mehr zur Commodity werden. Es stellt sich nur die Frage, ob wir es hinbekommen, als Europa in dieser Entwicklung eine Rolle zu spielen oder nicht – ob wir es schaffen, diesen Technologiewandel aktiv mitzugestalten oder nur lediglich ein Konsumenten- oder Ressourcenmarkt sein werden.

Mit deiner Beratungsfirma [at] unterstützt du Unternehmen bei den Themen künstliche Intelligenz, Data Science und Big Data – was treibt dich dabei an?

Uns als Team treibt die Liebe zu KI und Data Science an, aber auch der Wunsch, Europa zu retten. Das mag vielleicht vermessen klingen, aber es ist so; früher waren Prädikate wie „German Engineering“ und „Made in Germany“ noch wichtige Werte, und unsere Aufgabe sehen wir darin, diese europäischen Werte in den Technologiewandel mit einfließen zu lassen. Wenn wir das schaffen, dann glaube ich fest daran, dass das Thema KI für Europa zum Exportschlager werden kann.

Wie genau unterstützt ihr Unternehmen in ihrer digitalen Transformation? Welche Projekte waren für dich persönlich besonders spannend und erkenntnisreich?

Das ist das Schwierige an einer solchen Basistechnologie, wie es ja auch das Internet ist. Im Grunde programmieren wir KI. In den 1990er-Jahren hat es auch ausgereicht, zu sagen, dass man „Internet macht“. Heute wäre das undenkbar – eine Prodport macht kein Internet, die bauen ein Plug-in, um optimierte Produktdetailseiten auf Basis von KI für Shopify zu generieren. Im Grunde machen wir „All Things AI“ mit dem Nutzenversprechen, Mehrwerte aus den Daten zu generieren. Das fängt schon bei der Strategie an: Manche Unternehmen kommen zu uns mit dem Wunsch, eine Daten-Unit aufzubauen. Die beraten wir dann in der Wahl der richtigen Software und im Aufbau einer geeigneten Organisation und Prozesslandschaft, da eine solche Initiative immer auch viel mit Change-Management zu tun hat. 

In anderen Projekten entwickeln wir fertige KI-Produkte für und mit den Kunden. Ein Beispiel ist der Thermomix: Vor sieben Jahren hatten wir gemeinsam die Idee, das Netflix fürs Kochen zu entwickeln. Wir mussten zwar zuerst den Vorstand für unsere Idee begeistern, heute gibt es aber bereits viele Millionen gekoppelte Geräte weltweit, die dieses Abo haben, um Rezepte vorgeschlagen zu bekommen. Diese Rezepte werden beispielsweise sogar lokal an die Geschmäcker angepasst. Das Gerät lernt auch, wie und was du kochst und empfiehlt dir daraufhin passende Rezepte für deine Cooking Journey.

Ein anderes Beispiel ist die „ADAC Trips“-App. Früher gab es noch diese Karten und Reiseführer, mit denen man in den Urlaub gefahren ist und die Tipps für Sehenswürdigkeiten, Restaurants oder kinderfreundliche Strände enthielten. Über die Jahre hat sich der ADAC eine riesengroße Datenmenge erarbeitet, die wir in dieser App verdichtet haben, um Empfehlungen für die nächsten Reiseziele zu generieren. Die Bahn hat auch tolle Use Cases – beispielsweise haben wir das Thema Wartung optimiert, indem die Züge jetzt durch eine Halle durchfahren und von Kameras rundum aufgenommen werden. Die Bilder werden dann durch eine KI ausgewertet, um festzustellen, ob Wartungen anstehen.

In einem anderen Projekt im Zugverkehr ging es um Disposition und das Thema Reinforcement Learning, was momentan ein großer Hype ist – auch durch KI-Meilensteine wie der Sieg gegen Großmeister beim sehr komplexen asiatischen Brettspiel „Go“. Es gibt eine Art Zielfunktion, die die KI erfüllen soll, und die KI, die diese Zielfunktion am besten erfüllt, darf sich dann quasi weiter fortpflanzen, und die anderen sterben aus. So wird die KI immer besser und spielt irgendwann perfekt. Aber nicht, weil sie das Spiel verstanden hat, sondern weil sie gelernt hat, welche Reihenfolge an Aktionen zum optimalen Ergebnis führt. Mit einem solchen „Ameisen-Algorithmus“ haben wir ein Zugsystem mit der Bahn gebaut, damit die Züge untereinander entscheiden, wer als Nächstes fährt. Damit konnten allein im ersten Halbjahr 2022 bei der S-Bahn Stuttgart 4.000 Verspätungsminuten eingespart werden.

Welche Branchen hältst du für prädestiniert für den Einsatz von KI?

Wir spielen immer ein kleines Spiel im Bundesverband, bei dem jemand ein Problem vorbringt und das Team sich überlegen muss, ob KI das lösen kann. Eigentlich kam es nie vor, dass wir der Meinung waren, dass KI in einem Anwendungsfall nicht helfen kann. Die Frage ist natürlich immer, ob ein solches Projekt angemessen ist im Hinblick auf das Kosten-Nutzen-Verhältnis oder nicht. Die Branchen sind alle unterschiedlich weit. Aber selbst stark regulierte Industrien wie die Medizinbranche können unter Druck sehr schnell sehr hohe Mehrwerte durch KI generieren – das hat man ja während der Pandemie an der Firma BioNTech gesehen.

Die Frage nach dem KI-Use-Case ist auch im Grunde nicht die richtige. Die Unternehmen haben ihre Strategien, und die schauen wir uns genau an und analysieren, wo die Daten- und KI-Strategie zur Zielerreichung beiträgt. Wichtig ist, dass das Projekt schlüssig ist – früher waren IT und Business strikt getrennt, heute müssen sich beide Seiten aufeinander einlassen und miteinander verschmelzen. Manche Unternehmen in den USA gehen sogar schon so weit, dass sie „die IT-Abteilung“ abgeschafft und die IT-Mitarbeiter direkt in den Business Units integriert haben. In Deutschland hingegen erleben wir noch häufig, dass wir neben dem technologischen Nutzen und den Use Cases den Change mitbegleiten müssen, um das Wissen um die Daten im Unternehmen zu demokratisieren.

Die digitale Wertschöpfungskette ist unserer Ansicht nach mit ganz ähnlichen Herausforderungen ausgestattet wie die atomare, da es auch hier vor allen Dingen um logistische – also um prozessuale – Probleme geht. Mittlerweile werden KI-Komponenten von vielen sehr unterschiedlichen Softwareherstellern eingesetzt – vom Datenbereich im PIM, DAM und CRM über Marketingsoftware bis hin zum Channel Management und Digital Shelf Analytics. Allerdings haben wir gerade im PIM und DAM-Bereich häufig den Eindruck, dass sich Anbieter mit KI schmücken, aber die tatsächlichen logistischen Probleme dabei gar nicht berücksichtigen. Wie siehst du das?

Das ist ein super Impuls – das Problem ist, dass das völlig unterschätzt wird. Der Rohstoff Daten an sich bringt eben noch nichts, sie müssen verarbeitet werden zu richtigen Assets. Und das kann kein IT-Verantwortlicher tun. Die IT kann die Werkzeuge bereitstellen, aber es braucht jemand, der sich mit den Inhalten auskennt und Erfahrung hat in der Weiterverarbeitung dieser Inhalte. Das ist das, was man auch unter der Alchemie des Data Scientists versteht.

Ich höre zum Beispiel jeden Tag in Unternehmen, dass ihre Datenqualität schlecht sei. Das bedeutet aber meistens, dass die Metainformationen ihrer Daten nicht den eigentlichen Geschäftsvorgängen entsprechen. Das muss berücksichtigt werden, wenn Daten als Entscheidungsgrundlage herangezogen werden sollen. Es muss klar sein, wie die Daten interpretiert werden müssen. Deshalb gibt es auch gerade diesen Hype um Data Governance. Du kannst nicht einfach KI-Services oder andere Technologien einsetzen und hoffen, dass dann alles gut wird. Nicht nur die Daten sind in den Unternehmen häufig falsch gepflegt, auch die Semantik ergibt teilweise keinen Sinn. Der Knackpunkt aber sind ihre Prozesse – sie zeigen oft eindeutig, dass die notwendige Vernetzung von Business und IT nicht besteht. Die Technologie muss dafür eingesetzt werden, Prozesse zu optimieren. Unternehmen haben keine schlechten Daten – sie haben eine dysfunktionale Organisation und ihre Daten zeigen eben genau das auf – sie halten den Unternehmen den Spiegel vor. Und da gibt es auch keine Wunderwaffe und keine Zauberkugel, die das löst – wie es die Technologieanbieter oft versprechen.

Was tust du eigentlich, wenn du dich nicht gerade mit Daten beschäftigst?

Da bin ich in erster Linie mit meiner Familie zusammen, mache ein bisschen Sport wie Snowboarden oder Kiten. Wir haben auch ein Data Castle im Zillertal, das ist ein Ausbildungszentrum, das wir zusammen mit unseren Mitarbeitern aus einer alten Pension gebaut und renoviert haben. Ich spiele gerne Computer und Xbox, und ich schreibe auch sehr gerne, nur komme ich häufig leider nicht dazu. Und wir haben die Wim Hof-Methode für uns entdeckt – das ist eine Atemtechnik, ähnlich wie beim Yoga, bei der man mehr Sauerstoff einlagert. Das machen wir jeden Morgen um 07:30 Uhr mit Kollegen im Teams Call für 20 Minuten. Das ist gut für die Gesundheit, und man kann irgendwann tatsächlich zwei, drei Minuten die Luft anhalten ohne Probleme.

Was hältst du vom Metaverse?

Damit kenne ich mich nicht wirklich gut aus, aber durch Computerspiele habe ich dennoch schon immer einen Bezug zu virtuellen Welten gehabt. Ich war auch einer der Ersten in meinem Bekanntenkreis, der mit Virtual Reality experimentiert hat. Ich denke, es muss einfach massentauglich und einfach zu nutzen sein. Wenn die Einstiegshürde irgendwann sehr niedrig und das Metaverse einfacher zu nutzen ist als ein Webshop, wird es hier schon einen Durchbruch geben. Wir Menschen sind leider faul und suchen uns den Weg des geringsten Widerstands – da kommt es eben darauf an, wie sich die Technologie weiterentwickelt, und das gilt sowohl für die Hardware als auch für die Software. Beispielsweise habe ich mir vor ein paar Jahren eine Profikamera gekauft, die ich kaum noch benutze – die Kamera samt Objektiven herumzuschleppen ist sehr aufwendig, und mein Smartphone macht heute dank KI sogar bessere Fotos als ich das mit der Kamera könnte. Ich denke, dass die Verschmelzung der Technologie kommt und sich alles immer mehr miteinander vermischt. Wir leben schon in sehr aufregenden und tollen Zeiten!

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Über Alexander Thamm:

Alexander Thamm ist Daten- und KI-Experte, Speaker, Investor und Autor – zusammen mit Michael Gramlich und Dr. Alexander Borek hat er im Jahr 2020 „The Ultimate Data and AI Guide“ veröffentlicht. Mit seiner Beratungsfirma Alexander Thamm GmbH unterstützt er Unternehmen bei ihrer digitalen Transformation.

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Hat Ihnen dieser Artikel gefallen? Legen Sie ihn in Ihren Warenkorb!

-------------------------------------------------------------------------------------------------------------------------------------------------------------

Picture credit © Alexander Thamm.


Leave a comment

Please note, comments must be approved before they are published