Quantum-Inspired: KI neu gedacht

Shownotes

In dieser Folge nehmen wir euch mit auf eine Reise in die Welt der Quantum-Inspired Algorithmen und zeigen, wie Multiverse Computing klassische KI mit Ideen aus der Quantenphysik neu definiert. Gemeinsam mit unseren Gästen aus San Sebastian sprechen wir darüber, wie Tensor-Netzwerke aus der Quantenphysik Large Language Models effizienter und kompakter machen – und warum das nicht nur für Forscher, sondern für alle Industriezweige relevant ist. Wir diskutieren die Herausforderungen und Chancen von Open-Source-Modellen, teilen echte Kundenanwendungen und werfen einen Blick auf die Zukunft von KI-Entwicklung und Kompressionstechnologien. Dabei bleibt unser Gespräch nah an der Praxis und zeigt, wie Innovationen aus Forschung und Unternehmertum direkt in konkrete Produkte und Services einfließen. Hört rein, wenn ihr wissen wollt, wie Quantum-Inspired Thinking die KI-Landschaft für immer verändern könnte!

Multiverse Computing

https://www.multiversecomputing.com/

Tensor-Netzwerke

https://de.wikipedia.org/wiki/Tensor-Netzwerk

Large Language Models (LLMs)

https://de.wikipedia.org/wiki/Sprachmodell#Gro%C3%9FeSprachmodelle(LLMs)

Quantuminspirierte Algorithmen

https://en.wikipedia.org/wiki/Quantum-inspired_algorithm

Hugging Face

https://huggingface.co/

Open Source LLMs

https://huggingface.co/models

Quantencomputing

https://de.wikipedia.org/wiki/Quantencomputer

Distillation (Knowledge Distillation)

https://de.wikipedia.org/wiki/Knowledge_Distillation

Quantisierung (Quantization)

https://de.wikipedia.org/wiki/Quantisierung(MaschinellesLernen)

Pruning (Modell-Pruning)

https://en.wikipedia.org/wiki/Pruning(machinelearning)

Transkript anzeigen

00:00:05: Hallo liebe Zuhörer und Zuhäuer, willkommen zu einer neuen Folge unseres Podcastes Quanten in der Industrie.

00:00:11: Wieder eine internationale Folge.

00:00:13: wir schalten zuerst nach Linz zum Johannes.

00:00:16: Johannes grüß dich!

00:00:17: Hallo Robert, schöne Grüße aus Linz.

00:00:19: Ich stehe an der Autobahn A-III kurz vor Regensburg und lade mein Auto Und wir schalten dann von der A-II nach San Sebastian zum David.

00:00:28: Hallo David Willkommen.

00:00:30: Und wir schalten ein paar Kilometer weiter zum Oliver ins Home Office nach San Sebastian.

00:00:36: Hallo, das ist richtig!

00:00:37: Ja.

00:00:38: Willkommen bei uns im Podcast David und Oliver.

00:00:41: Bevor wir richtig loslegen wäre es total nett wenn ihr euch ganz kurz den Zuhörerinnen und Zuhöhr vorstellt.

00:00:47: wer seid ihr?

00:00:48: was macht ihr bei Multiverse Computing in San Sebastian?

00:00:52: Wie seid ihr zu dem Thema Quanten gekommen?

00:00:55: David magst du anfangen?

00:00:57: ja ich kann gerne anfangen so vielleicht Ich bin Gebührige-Norweger, so falls ihr meinen Akzept nicht versteht und dann sagt Bescheid.

00:01:05: Was für eine Internationalität heute morgen hier?

00:01:07: Wahnsinn!

00:01:08: Aber gut ich habe Physik in München studiert... ...und dann bin ich schon später für die Promotion nach Göttingen gegangen.. ..und da hab' ich theoretische Festskörperphysik eigentlich gemacht.

00:01:19: Aber währenddessen bin ich jahrelang aufmerksam auf die ganze Kontenindustrie und die Anwendungen dann gemacht worden.

00:01:26: Aber ich bin dann später erst für ein Postdoc nach Barcelona gegangen, wo ich in eine Gruppe für Quanteninformationstheorie gearbeitet habe.

00:01:34: Ich bin schon sehr früh aufmerksam auf Multiverse Computering geworden, weil ich so ein paar Artikel von denen und so gesehen habe.

00:01:40: So haben mich immer mit den Gedanken gespielt, mich da zu bewerben.

00:01:45: Dann war es dann soweit und dann habe ich mich halt beworben.

00:01:51: Und jetzt bin ich in der Forschungsabteilung Allgüßliche Intelligenz.

00:01:57: Okay, Oliver?

00:01:59: Ja mein Werdegang ist das ich in Berlin Informatik studiert habe und dann später im Kaiserslautern provoviert habe.

00:02:05: Ich bin wirklich Informatiker und komme aus der KI.

00:02:10: Das war was ich seit vielen Jahren mache Und meinen Kontakt zum Quanten Computing und zu den Technologien aus dem Quanten computing die wir jetzt einsetzen hier bei Multiverse Computing Da bin ich dann wirklich hier erst dazugekommen.

00:02:26: Wir setzen ja nicht nur Quantencomputing ein, wir benutzen viele der Ideen aus dem Quantenkomputing eben in der KI, weil werden wir vielleicht später noch ein bisschen darüber sagen und Ich glaube, ich bin mit diesem Profil bei uns gar nicht so unüblich.

00:02:41: Wir sind eine, glaube ich sehr ausbalancierte Mischung aus beiden Welten Und dadurch dass wir uns da hier in San Sebastian oder den anderen unserer Standorte treffen kommen diese zwei Themen eben auch ganz gut zusammen.

00:02:56: Johannes, warum hast du die Multiverse Computing in unserer Redaktionsliste geschrieben?

00:03:01: Ja genau als wir uns überlegt haben welche Themen wir in unserem Podcast abdecken wollen war halt klar dass wir die Säulen der Quantentechnologie diskutieren möchten also Quanten Computing, Quantenkommunikation und Quantensensing.

00:03:15: Aber dass es eben diese mehr oder weniger vierte Säule auch gibt, das fällt auf den Begriff Quantum-Inspired Algorithms.

00:03:23: Oder Quantum Inspired Machine Learning und Multiverse Computing ist da aus meiner Sicht einer der ganz großen Player.

00:03:29: Vielleicht können wir unsere Gäste auch kurz bitten, dass Sie Ihre Definitionen oder Interpretation dieses Gebiets geben von Quantum inspired Algorithm.

00:03:38: Ja voll!

00:03:39: Wer mag David?

00:03:40: Oliver?

00:03:41: Wer will anfangen?

00:03:42: Ich kann gerne anfangen so... Was ich darunter verstehe, ist halt wenn ich da irgendwelche Algorithmen von zum Beispiel der Quantenphysik nehme und ich dann das z.B.

00:03:51: in Kojan nenne... Ja, ganz einfach erklärt was?

00:03:56: Genau!

00:03:57: Das ist also nicht Quanten-Physik per See.

00:03:59: aber man nimmt Techniken, Algorithm, Konzepte, Schemen, Modelle aus der Quanteninformation aus dem Quantencomputing klassische Informatik beziehungsweise klassische künstliche Intelligenz in diesem Fall.

00:04:16: Johannes, kurze Frage!

00:04:17: Wir haben ja in den letzten Folgen immer wieder gelernt dass wir beim Thema Quanten ein Algorithmic-Limit haben oder einen Showstopper so'n bisschen haben.

00:04:25: das hat aber jetzt damit gar nichts zu tun, gell?

00:04:28: Genau genau hier geht es darum dass man die Ideen und Konzepte und Modelle aus der Quantenphysik nimmt aber verwendet für rein klassisches Machine Learning.

00:04:39: Deswegen auch dieses Kornprom inspired.

00:04:42: Na, hier heute wird es nicht glaube ich gehen um Quantencomputing oder Quantumtechnologie per se sondern das geht um die Befruchtung der quantentechnologischen Entwicklungen in den letzten Jahre Jahrzehnte auf klassische Feldereinformatik beziehungsweise künstlichen Intelligenz.

00:05:00: Oliver warum könnt ihr das so gut?

00:05:02: Was ist euer besonderes Know-how?

00:05:05: Unser besonders know how ist dass wir genau also die Firma genau aus diesem Bereich kommt, wirklich aus dem Quanten Computing und sich früh die Firma darauf spezialisiert hat das was Quanten-Computing heute bereits leisten kann zu nutzen um unseren Kundinnen und Kunden anzubieten.

00:05:23: Was machen sie denn eure Kunden?

00:05:26: Unsere Kunden sind aus allen Industriezweigen.

00:05:28: ich kann nachher vielleicht mal ein paar Beispiele geben und Sie kommen mit uns mit allem von KI Fragestellungen hin zur Optimierungsprobleme Und wir benutzen aus den Produkten, die wir haben und unseren Kunden anbieten können.

00:05:47: Benutzen wir dann immer das was am besten zu dem jeweiligen Fall passt also zum Beispiel im Bereich der Optimierung können bequant Computing anbieten.

00:05:55: wenn wir dann mehr in den Bereich der KI gehen gibt es einige Anwendungen noch eher aus der klassischen künstlichen Intelligenz Schien-Learning könnte man sagen, wo Quantum Computing gut ins Bild passt.

00:06:09: Wenn wir dann je weiter in das Thema Deep Learning gehen und es so weiter bewilligen wird es in der Reich des Quantum Inspired Algorithms eben wie genau von Johannes gerade zusammengefasst, wo wir dann eben sagen okay wir können das vielleicht jetzt noch nicht auf einem Quantum Computer berechnen aber wir können Ideen benutzen die uns hier weiterhelfen.

00:06:28: Das heißt, wenn ich da kurz einhaken darf, historisch.

00:06:30: Multiverse stimmt es?

00:06:31: Euch gibt's seit Jahrzehnteinundneunzehn?

00:06:33: Habe ich das richtig gesehen?

00:06:35: Stimmt es?

00:06:36: Ja!

00:06:36: Und

00:06:36: das heißt, euer Beginn war eben dann wahrscheinlich mehr mit Problemen wie du gesagt hast.

00:06:42: Optimierung

00:06:42: usw.,

00:06:43: und ihr seid ja selber auch Zeitzeug geworden an der Revolution der Large Language Models.

00:06:48: Also die waren dann erst seit Jahrzehntzig-Zweiundzehnzig-Twanzig-Treiundzwanzig.

00:06:52: Ich habe zwar so mit trotzdem schon Beep Learning Probleme begonnen in dem Jahrzimmer.

00:06:56: oder welche Problemfelder waren das vor den LLMs?

00:07:00: Also ich bin selbst seit jetzt zwei Jahren bei Multiverse Computing, aber ich kann das durchaus so bestätigen.

00:07:07: Das Ganze ging los wirklich damit Quantum Computing anzuwenden in Optimierung und in Optimierungen für Machine Learning Anwendungen.

00:07:18: Es gab viele Anwendungsgebiete Finanzbereich, aber auch in verschiedenen Industriezweigen.

00:07:25: Es wurden auch erste Produkte dann schon über die Jahre entwickelt, die sowohl Quantum als auch Quantum Inspired Ideen verwendet haben und bis heute verwenden.

00:07:34: Und genau jetzt in den letzten, ja ich denke so circa drei vielleicht vier Jahre mittlerweile und immer stärker jetzt über die letzten zwei Jahre ist das Thema der LDMs und des Geep Learning allgemein immer größer geworden.

00:07:50: Genau, vielleicht darf ich da dann gleich nachhaken.

00:07:52: Natürlich die großen Sprachmodelle oder sogenannte Large Language Models LLMs, die kennen natürlich heute mittlerweile jeder, Jejebidi, Gemini, Lama, Claude wie sie alle heißen, täglicher Begleiter für viele Ratgeber, vielleicht sogar Assistent- oder Co-Worker.

00:08:10: LLM sind sehr teuer sowohl im Training als auch... im Abfragen dann, also wenn man dann konkrete Antworten haben will und wenn ich es richtig verstehe habt ihr eine Methode entwickelt solche large language Modules zu komprimieren.

00:08:25: Also vielleicht...wenn ich das richtig verstanden habe, vielleicht könntest du dann kurz zwei Punkte vorweg erklären.

00:08:32: was bedeutet Komprimierung?

00:08:33: Und warum ist das interessant?

00:08:36: Was sind bekannte Standardmethoden die's quasi schon gegeben hat für Komprimierung?

00:08:41: und dann können wir in Abgrenzung schauen, wie ihr das dann quantum inspired gemacht habt.

00:08:47: Ja so vielleicht kann ich erstmal beantworten?

00:08:49: So okay was wir meinen wenn wir halt sein dass wir wollen diese large language models komprimieren ist wie Johannes schon gesagt hat es die sind da jetzt riesig und sie sind auch extrem teuer.

00:08:58: jetzt einfach nur wenn ich einen forward pass also machen will das kostet alles richtig Geld und auch das trainieren nicht nur das trainiert von dem modell selber aber auch wenn ich ein model habe und sagt, ich will das auf eine spezielle Gebiet oder so quasi fang tun.

00:09:13: Das kostet dann wieder viel Geld.

00:09:16: So was wir machen wollen ist... Wir wollen die erstmal klein machen, sodass das was jetzt du vorher auf den Cloud haben müsstest, kannst du jetzt erst mal auf deinen Laptop zum Beispiel haben Und nicht nur das!

00:09:27: Wir wollen ja auch viel effizienter machen, so dass du beim Trainieren oder einfach benutzen nachher, dann das einfach viel billiger machen kannst.

00:09:35: Darf ich mal kurz reinhaken?

00:09:36: Das ist total spannend, weil... Ich bin ja ein bisschen Bayerster.

00:09:39: Johannes weiß das!

00:09:41: Weil ich mit dem Serbhochreiter zusammen wie im Team an XLSDM Distilled-Models arbeiten.

00:09:47: Also wir distillieren im Prinzip Transformermodelle auf XLSTM Modell.

00:09:52: Was ist denn der Unterschied zwischen Quantinisierung und Distillierung?

00:09:56: Kannst du das mal

00:09:57: erklären?!

00:09:59: Ja also Quantisierung, da geht es ja nur darum quasi deine Gewichte einfach in ein kleines Format zu speichern.

00:10:05: So sei mal einfach nur als Beispiel wenn jetzt deine Gewichter als irgendwie floating point hättest dann könntest du theoretisch die einfach als integer speichert und okay das würde am Ende viel weniger Speicher aufnehmen.

00:10:18: So Destillierung, dann geht's eher darum eine größere Modell zu nehmen und damit auch ein kleiner Modell so trennieren.

00:10:25: dass ist nicht nur quasi lernt mit Hilfe von Daten, sondern auch quasi zu einem TJ-Model.

00:10:31: Da möchte ich jetzt nur einen Satz einhaken damit unsere Zuschauer nicht verwirrt sind.

00:10:35: Das war total richtig erklärt der Begriff Quantisierung hier also das Abschneiden der Genauigkeit bei large English Models hat überhaupt nichts mit Quantenmechanik zu tun.

00:10:44: Es kann jetzt niederlich verwirrend werden weil nachher wohl mehr wirklich von der QuantenMechanik Moment... ...das ist einfach ein Begriff der hier verwendet wird, hat nichts mit Quantum Mechanics zu tun.

00:10:52: Könnte ihr mal den Prozess dieses LLM sozusagen kleiner, dieses Komprimieren.

00:10:58: Könnt ihr uns den mal erklären wie das funktioniert technisch?

00:11:25: Genau also Pruning, Gewichte entfernen, Distillierung und Quantisierung.

00:11:30: Das sind klassische bekannte Methoden und ich glaube euer claim to fame ist jetzt das ihr Tensor-Netzwerke in die Geschichte eingebracht habt.

00:11:42: Die kommen ja ursprünglich aus der Viel der Echen Quantenphysik.

00:11:45: eine Hochburg da ist auch München wo auch der Roman Orhus eurer Co-Gründer Zeit verbracht hat.

00:11:51: könnt ihr erklären, was Tensor-Netzwerke sind und wozu man die vielleicht in der Quantenphysik eigentlich braucht.

00:11:59: Und

00:12:00: wie ihr die jetzt

00:12:02: in eurem Unternehmen einsetzt für klassische KI?

00:12:06: Ja so ich meine ganz oberflächlich.

00:12:08: So am Ende hast wenn man hat eine größere Struktur hat dann ist halt die Frage kann ich diese Struktur in kleinere Bauteile erst mal aufteilen?

00:12:17: und okay das kann man dann machen mithilfe von Tenzo Netzwerk.

00:12:21: ja Das ganz triviale Beispiel ist natürlich, ich kann ein Matrix haben zum Beispiel.

00:12:26: Das besteht aus einer Matrix-Multiplikation von zwei Matrizen und da kann ich die Wahl haben, okay will ich einfach diese große Matrix einen Matrix speichern oder halt diese zwei?

00:12:35: In diesem Fall wäre es eher vorher ein Matrix zu speicheren weil dann sagt man nur das Speicher von zwei.

00:12:41: aber intensiv gibt's halt Strukturen die man halt aus Bauteile darstellen kann so dass das viel effizienter ist diese kleine verschiedene Strukture zu haben.

00:12:51: Das kommt halt aus der Quantenphysik, weil es sehr viele oder es gibt eine Menge von Quantenzuständen.

00:12:56: Da spricht vor allem von Grundzustände die man halt sehr effizient dadurch verspeichern kann und auch Operationen machen kann.

00:13:04: so statt dass ich die komplette Quanten zustande dann die Exponential wachst dann speichere kann ich das erst mal eher als Stücke dann aufteilen und haben.

00:13:13: Dann ist halt die Idee gewesen okay in diese large language Models Die bestehen ja auch am Ende nur auf sehr viele Matrizen Und diese Matrizen sind dann auch so effizient als kleinere Teile am Ende aufspalten und zu speichern.

00:13:26: Das ist die Idee hinter der Kompressionsmethode.

00:13:29: D.h.,

00:13:29: ihr seid aber im Jahr zwei Tausend neunzehn, nochmal für mich zum Verständnis nicht mit der Idee der Kondression gestartet?

00:13:37: Nein, genau so wie Oliver schon gesagt hat.

00:13:40: Ich bin auch später dazu gekommen aber im Jahr zwei tausend neunzehn war er dann Optimierungsprobleme die gelöst wurden mit Soft-Konten-Mapierer aber auch dann solche Tension Netzwerke aber auch dafür und das ist halt eher später als diese langulischen Models dann wirklich groß gewohnt sind.

00:13:53: da hatten wir halt direkt erkannt dass okay diese Gewichte vielleicht können wir die auch dann komprimieren mit der gleichen Methode.

00:14:00: Wollte da kurz noch David zustimmen, stellt sich mir genauso dar.

00:14:02: Ich würde nicht sagen dass die Dinge nacheinander passiert sind sondern es gab viele parallele Entwicklungen innerhalb der Firma.

00:14:08: Okay was ist denn der technologische Vorteil den ihr gegenüber Wettbewerbern hat?

00:14:14: oder gibt es gar kein Wett Bewerb in dem Markt?

00:14:17: Natürlich gibt's viele Menschen die sich um das Thema kümmern.

00:14:19: einige Beispiele hatten wir hier gerade auch schon gehört.

00:14:23: Der Wett bewerbsvorteil den wer haben isst dass wir diese Modelle unseren Kunden anbieten können mit einem sichtbaren Kostenvorteil.

00:14:34: Ich denke, das ist ja letztlich das was die Kunden von Multiverse Computing interessieren.

00:14:41: Mit welchem Geld Zeit Energieaufwand können sie diesen Modellern bieten?

00:14:46: und das ist letztlich der Vorteil der dabei herauskommt.

00:14:50: Und was macht euch technologisch anders als der Wettbewerb?

00:14:53: Ja da gibt es auch.

00:14:55: Ich glaube, ich erst mal die Antwort, die David ja auch gerade schon dargestellt hat.

00:14:59: Das ist der Ursprung und die Quelle von Multiverse und vor allem unserem Research Department – das eben genau aus den Themen, die Darwin gerade dargestellt hatte – kommen und dass wir über Jahre hinweg diese Technologie immer weiterentwickelt haben und jetzt eben soweit sind, dass wir sie unseren Kunden anbieten können Die gerade erwähnten Vorteile dabei herausarbeiten.

00:15:22: Du hast ja angekündigt, du kannst zwei drei Kundenbeispiele nennen.

00:15:26: Magst du mal was mit uns teilen?

00:15:28: Ja natürlich!

00:15:29: Also zunächst einmal haben wir Kunden aus ganz verschiedenen Industriezweigen und wir haben neben unserem Research Department, was die Mitte David kommt... haben wir auch ein Product Department, das heißt dort werden Produkte wie Kompaktive AI eben entwickelt.

00:15:49: Was auch als API verfügbar ist.

00:15:52: Das gleiche da nochmal zur Erklärung, das bedeutet dass man unsere großen Sprachmodelle in eigenen Applikation verwenden und einbinden kann.

00:16:01: Und das ist etwas wo man dann sehr direkt den Vorteil unserer Kompassionstechnologien sehen kann.

00:16:08: Und die dritte Säule, die wir ergeben haben ist die in der auch ich ganz stark arbeite mit meinem Team.

00:16:13: Das ist das was wir Services nennen.

00:16:16: hier arbeiten wir also direkt mit Kunden zusammen um deren Fragestellungen zu beantworten.

00:16:23: und da gibt es Beispiele wie auch hier in Spanien dann konkret die Fahrzeugindustrie die mit Scheduling Problemen in ihren Produktionserlagen zu uns kommen wo wir dann an der mathematischen Modellierung des Ganzen arbeiten.

00:16:38: Hier gibt es spezielle Formen von Optimierungsproblem, die sich eben dafür eignen auch auf Quantcomputern optimiert zu werden.

00:16:48: Ein Beispiel von Projekten, an denen wir arbeiten.

00:16:52: Dann gibt es Beispiele von klassischen KI-Anwendungen.

00:16:56: das bedeutet beispielsweise ja auch im Defense Sektor zum Beispiel kommen Kunden und Kunden zu uns und wollen für eine bestimmte Anwendung ein Modell entwickelt haben.

00:17:08: Das dann aber, da wird es spannend eben nicht auf einer möglichst großen GPU, auf einem spezialisierten Rechner irgendwo im Internet laufen soll sondern auf einen kleinen möglichst energiesparenden Gerät was eventuell noch in etwas anderes eingebaut werden muss.

00:17:25: Und dort sind dann sowohl Rechen als auch Speicherkapazitäten stark begrenzt.

00:17:29: Dann ist unser konkretes Ziel für ein Anwendung, die unsere Kundinnen und Kunden uns geben.

00:17:37: Dieses Modell so zu komprimieren dass die Qualitätsanforderungen erfüllt werden aber die Inferenz das heißt also die Berechnung der Vorhersage die diese Modelle letztlich liefern auf einem gegebenen Gerät laufen kann.

00:17:55: Und hier ist dann eben diese Ausbalanciierung der zwei Kriterien Wie klein muss das Modell sein?

00:18:02: und trotzdem den Qualitätsanforderungen weiterhin zu entsprechen, das auszubalancieren ist dann genau das, woran unsere Teams hier arbeiten.

00:18:09: Was gilt für LLMs aber auch andere G-Blanningmodelle?

00:18:12: Ich habe nochmal eine Frage noch mal zum Verständnis kurz für mich.

00:18:15: Seid ihr denn angewiesen dass die bestehende LLMS komplett Open Source sind oder was braucht Ihr von den LLM's?

00:18:23: Ja Wir arbeiten mit Open Source Modellen, das ist richtig.

00:18:28: Das sieht man auch wenn man sich zum Beispiel die Modelle anschaut, die wir auf der Compactify API diesen Produkt aus dem Wer anbieten und durch das Anschauen sieht man es dort auch ganz deutlich.

00:18:39: was brauchen wir?

00:18:43: Wir brauchen unsere Kompressions Technologie.

00:18:45: Was braucht ihr?

00:18:46: Es gibt ja verschiedene Definitionen von Open Source in dieser LLM-Welt, also braucht ihr open weights was sozusagen...was muss open source sein damit es funktioniert?

00:18:56: Open weights.

00:18:58: Ja plus natürlich eine Lizenz die kompatibel mit unserem Geschäftsmodell ist.

00:19:04: Und ist das manchmal ein Showstopper?

00:19:05: weil wir sehen jetzt die Bereitschaft da nicht so viel zu tun.

00:19:09: im Moment.

00:19:11: Ich weiß nicht, wie meinst du so nicht zu viel zu tun?

00:19:13: Naja wir sehen ja das nicht alle ihre Wades immer veröffentlichen und dass es da immer wieder an Grenzen stößt.

00:19:19: Und dass es immer wieder diskutiert wird was ist denn jetzt ein Open Source LLM wirklich?

00:19:25: Ist das für euch ein Thema eine Herausforderung?

00:19:27: Er sagt dir der Open Source Markt für LLMS ist so groß dann bedienen wir uns einfach woanders.

00:19:33: Ja also ich würde auf jeden Fall sagen Jetzt ist er so dass die Open Source Modelle gerade sind so stark dass mehr als genug Auswahl haben.

00:19:41: Aber in der Zukunft muss man halt anschauen.

00:19:44: Ja, genau wie sieht ihr das?

00:19:46: Wird es sich verändern?

00:19:48: Die Sicherheit!

00:19:49: Der Markt und die Technologie verwendet sich immer.

00:19:52: Ich denke genauso wieder wird hier...die Möglichkeiten, die wir hier noch haben und der Markt da gerade bietet sind groß genug und das Interesse unserer Partner ist auch groß genug.

00:20:02: sicherlich wird sich, wie ich gerade sagte in der Zukunft auf was verändert habe.

00:20:05: Ich kann jetzt nicht genau sagen, wie sich das natürlich verändern würde.

00:20:09: Genau.

00:20:10: Darf ich nur etwas dazu fügen?

00:20:11: So, ich weiß ja, ich bin natürlich immer optimistisch aber ich denke auch dass man erst sieht, dass der Trend vielleicht gegen zu mehr Open Source wird, weil auch die große... Vielleicht nicht alle ihre Modelle, aber auch die großen Firmen, die sehen dann erstmal ist es eine ganz gute Werbung für sie.

00:20:24: Wir sind ja auch als Open AI haben letztes Jahr auch zwei Modelle öffentlich gestellt mit ihrer Gewicht und allen.

00:20:29: Das ist eine gute Werbung.

00:20:31: Die sehen auch, was die Community halt alles mit ihrem Modell machen können und ja so sehen sie auch dann... Können ja demonstrieren wie gut ihr Modell das ja damit machen

00:20:40: könnt.".

00:20:42: Und von der anderen Seite betrachtet ihr publiziert ihr eure Arbeiten?

00:20:46: Eure Telefon-Netzwerkideen.

00:20:47: reicht ihr da vorher Patente ein oder kann man das Algorithmen überhaupt schützen?

00:20:52: also wie schützt ihr eure Ideen?

00:20:55: Oder seid ihr in der Geschwindigkeit des Marktes einfach vorne

00:20:58: dabei?".

00:21:00: Wir erreichen natürlich auch Patente ein, Multiverse hält eine ganze Reihe an Patenten.

00:21:05: Auch Patente im Bereich der Anwendung von Tensor-Netzwerken in Deep Learning und zur Kompression von LLMs.

00:21:13: Vor allem unser Research Department veröffentlicht als Multiverse Computing Preprints und Publikation.

00:21:20: Die sind öffentlich einsehbar.

00:21:22: Natürlich entwickeln wir uns immer weiter die internen Entwicklungen.

00:21:28: ist das, woran wir direkt an unser Geschäft ausrichten.

00:21:32: Genau darüber hinaus veröffentlicht jetzt seit neuestem auch Multiverse Computing Open Source Modeller.

00:21:39: also haben ein Modell jetzt gerade auf Hanging Face gestellt.

00:21:44: Das heißt auch das ist etwas wo wir jetzt in die Community mit rein spielen.

00:21:50: Kannst du nochmal hier veröffentlichen Open Source Model?

00:21:53: Kannst Du noch mal kurz das Geschäftsmodell erklären, wenn jetzt ein Kunde auf euch zukommt.

00:21:59: Welche Optionen hat der?

00:22:02: Ja, Option Nummer eins.

00:22:05: also bleiben wir zum Beispiel bei dem Fall das Kunden ein großes Sprachmodell für eine bestimmte Anwendung.

00:22:13: Option Eins ist eines der Modelle die wir über Compactify bereits anbieten passt für diese Anwendungen.

00:22:22: Dann können diese Kunden sich bei uns registrieren und dann über unsere API, das heißt sprich über Internet anfragen.

00:22:29: Diese Modelle direkt in ihre eigenen Anwendungen einbinden.

00:22:33: Und Lizenzieren lassen?

00:22:35: Genau!

00:22:37: Das ist Nummer eins.

00:22:38: Nummer zwei wäre dann wenn Kunden diese Modelle selbst haust möchten, sprich in ihrer eigenen Geräte, ihre eigene Infrastruktur in irgendeiner Form anbinden wollen.

00:22:50: dann starten wir Projekte gemeinsam mit diesen Kunden und schauen, wie sie das eben bei sich optimal hosten.

00:22:59: Dann wenn es spezieller wird beispielsweise spezielle Sprachanforderungen, wenn die Modelle für bestimmte Anwendungen oder Domänen trainiert werden müssen arbeiten wir mit den Kunden zusammen und führen dieses Training durch natürlich auch wieder kombiniert immer mit Kompassionstechnologien um ihr möglichst kostenweiligen Anwendern zu sparen.

00:23:23: Und dann gibt es aber auch durchaus Kunden, die mit generellen Fragestellungen zu uns kommen.

00:23:30: beispielsweise ich brauche eine Applikation, die in meinem Unternehmen folgende Frageställung löst und dann sind wir eher im klassischen KI oder eben auch Optimierungsberatungsgeschäft wo wir direkt den Projekten über längere Zeiträume mit diesen Kunden zusammenarbeiten und eine vollständige Lösung anbieten.

00:23:50: Und diese Lösung kann manchmal auf unserer Infrastruktur laufen, ganz als Erweiterplikationen an.

00:23:59: In anderen Fällen entwickeln wir Applikation direkt in den Domänen der Kunden.

00:24:04: also Wir sind hier wirklich sehr breit aufgestellt offen auf verschiedene Beschätzungsmodelle.

00:24:11: Wenn ich jetzt als Kunde mir das Modell bei euch ziehe, ich lizenziere mir das dann kann ich auch alles andere machen was die schon kennen?

00:24:17: Ich kann ein Rack draufmachen und kann es im Prinzip anpassen nach meinen Themen oder?

00:24:22: Richtig!

00:24:22: Die Frage ist was man mit Ziehen meint.

00:24:25: also glaube ich bis jetzt einen Open Source Modell was auf Huggingfills läuft.

00:24:28: damit geht dass auf jeden Fall.

00:24:31: und unsere komprimierten Modelle die wir unseren Kunden anbieten Die kann man jetzt nicht so in dem Sinne downloaden, aber wir können sie natürlich im Bereich unseres Projektgeschäfts unseren Kunden anbieten und wie gesagt wir integrieren die dann durchaus in deren Infrastruktur.

00:24:49: Also man stelle sich vor da läuft eben ein PC mit einer limitierten Hardware irgendwo beim Kunden und sagt okay das ist also das wo wir die Applikation drauf laufen lassen wollen, dann arbeiten wir mit den Kunden zusammen Das zu ermöglichen.

00:25:01: Aber ihr macht jetzt nicht nur ein Service und sagt, wir machen jetzt noch einen Rack mit den Kunden sondern das könnte den Dienstleister XYZ dann machen?

00:25:08: Ah okay verstehe, Racks ist hinten rum ja doch tun wir durchaus

00:25:12: auch.

00:25:13: Wir sind wirklich im allgemeinen Bereich der KI Entwicklung durchaus oft tätig.

00:25:17: Spannend!

00:25:18: Es ist total breit Johannes, gell?

00:25:20: Ja ich bin auch sehr angetan von dem gesamten Setpapier.

00:25:25: Im Juni letzten Jahres war eure letzte Finanzierungsrunde, wenn ich es richtig recherchiert habe mit einer Bewertung von mehr als fünfhundert Millionen Dollar.

00:25:34: Und jetzt liest man das bei der nächsten Runde eine Bewertungen von über einer Milliarde anstehen könnte.

00:25:40: also ihr würdet damit in den Olymp der europäischen Einhörner euch einreihen.

00:25:47: und meine Frage ist einfach wie fühlt sich das an?

00:25:50: Wie Gut.

00:25:54: Wie geht es euch mit so einer versandten Entwicklung?

00:25:57: Es ist viel los, es ist unheimlich viel zu tun und wir arbeiten vorwärts und benutzen die Ideen, die wir haben für mich.

00:26:07: konkret kann ich sagen dass sich diese Zahlen höre und ich weiß das sie sehr groß sind und ich sehe das damit unheimliche viele Dinge in der Zukunft natürlich passieren werden.

00:26:17: aber So konkrete Projekte und so konkrete Ideen, an denen wir arbeiten.

00:26:23: Das ist eigentlich das was bei mir das Tagesgeschäft ist.

00:26:26: Wir sind Johannes eben im Research Bereich Ich vor allem in dem Service Geschäft, von dem ich gerade sprach Und... ...ich ziehe da meine Motivation ganz stark aus den Kunden Interaktionen Aus den Projekten die wir machen, aus den Resultaten Die wir mit dem Team kriegen Und sehe einfach wie viel dann noch für uns ist.

00:26:46: Ja!

00:26:47: Ich glaube der kommt noch viel auf uns zu.

00:26:50: Ja David, wie ist das bei dir?

00:26:52: Ich wollte nur vielleicht zufügen was ich halt sehr interessant gefunden habe.

00:26:57: Ein Teil davon so sein zu sehen wie die Firma wächst und wie halt die Organisation sich, also wie es größer macht, wie zum Beispiel der Research Team gewachsen ist und wie mehr Struktur angenommen hat etc.

00:27:06: Und wie es ist wenn man in eine kleine Firma anfängt oder es dann wächst, einfach ein Teil von dieser Prozesse zu sein hab ich auf jeden Fall persönlich sehr interessant gefunden.

00:27:15: Wie viele Mitarbeiter habt ihr mittlerweile in San Sebastian und wie viele in anderen Offices?

00:27:20: Also wir sind aktuell ungefähr vierhundertfünfzig Mitarbeitende beim Multiverse Computing.

00:27:26: San Sebastian ist das Zentrum von Multiverse computing, ein weiterer etablierter und lang etabrierter Standort ist in Toronto wo auch unser STTO sitzt.

00:27:38: Wir haben weitere Büros in Spanien jetzt geöffnet Und wir haben auch Standorte.

00:27:44: In Paris haben wir einen Standort.

00:27:46: Es gibt was in den USA und in Italien, aber da ist es auch wirklich so.

00:27:52: das rassante Wachstum, was wir jetzt haben, dass David gerade sagte.

00:27:56: Das ist nicht so, dass wir ständig zwischen dem Büros hin und her reisen in die USA nach Italien.

00:28:03: Wir sind hier und machen unsere Arbeit!

00:28:05: Ich habe mal noch eine Frage, weil jetzt haben wir letzte Woche gesehen.

00:28:08: Jetzt hat der Jan Le Kuhn ne Milliarde ge-raced und es wird ja immer von Fisical AI und LLMs.

00:28:15: ist das Dead End sozusagen in der AI.

00:28:18: Macht euch das Sorgen?

00:28:19: So welche Diskussion?

00:28:21: Nein ich finde es... Also mir macht's keine Sorgen!

00:28:24: Ich find es spannend natürlich was jetzt als nächstes kommt bezüglich wie viel Milliarden oder dass er jetzt eine Milliarde investiert wurde.

00:28:34: Das ist für mich einfach auch nur eine Chance.

00:28:38: Und das zeigt, dass wir auch hier in Europa und mit Multiverse Computing durchaus noch Wachstumsschancen haben was ich sehr gut finde und ich denke dann eher darüber nach was für Möglichkeiten diese Firmen haben in der Zukunft neue Dinge zu entwickeln.

00:28:54: Ich weiß jetzt nicht was mir daran Sorgen machen sollte.

00:28:58: Es wird ja immer propagiert, dass LLM Thema ist sozusagen ne Einbahnstraße andere Wege vielleicht.

00:29:05: Und jetzt habt ihr ja schon ein Großteil eurer Geschichte sitzt ja auch auf dieser haben wir viel übersprungen, auf der LLM-Technologie.

00:29:11: macht euch das so und dann sagt ihr na egal was da kommt dafür werden wir auch wieder eine Lösung

00:29:15: haben?

00:29:16: Ich würde eher das sagen.

00:29:17: ich meine am Ende diese neue Modelle werden ja auch nur irgendwie aus Gewichte bestehen und Gratitude sind und ich denke da können man vielleicht auch einen Markt geben um diesen Modell keines zu machen.

00:29:28: Die ursprüngliche Modelle würden wahrscheinlich auch groß sein.

00:29:30: also ich denke dass ist ja definitiv etwas.

00:29:33: Wir reden jetzt von LLMs, aber wir haben diese Komprimierungsmethoden für andere Koi-Modelle angewandt.

00:29:42: Das ist schon flexibel.

00:29:44: Genau das wollte ich auch gerade sagen und war damit vollkommen richtig.

00:29:48: Wir machen ja nicht nur LLMS – das ist der eine Punkt!

00:29:55: Ich sehe das, was Multiverse Computing entwickelt als ein weiteres Tool innerhalb der gesamten KI-Geschichte.

00:30:04: Das heißt natürlich fänden wir es ganz starker von LMS aktuell an weil das dort aktuell

00:30:11: ist.

00:30:12: Aber wir können das grundsätzlich auf alle Deep Learning Modelle anwenden und ich glaube eine große... Starke unserer Teams ist auch wann immer neue Modelle herauskommen, schnell zu sehen wie unsere Ideen sich erweitern lassen auf diese neuen Architekturen und dann eben auch gucken wir das dort nutzen können.

00:30:33: Johannes letzte Frage von dir.

00:30:36: Ihr seid ja keine Spanierwiesen des Leben in San Sebastian im Vergleich zur Deutschland- bzw.

00:30:41: Norwegen?

00:30:43: David Norwegen

00:30:45: Ich hatte ja gehofft, dass das Wetter hier viel besser sein sollte.

00:30:48: Aber insonsten war es ganz anders.

00:30:49: Ist das nicht schon mit irgendwelchen

00:30:51: Fahnen?

00:30:52: Wegen jetzt viel oder?

00:30:53: Ja,

00:30:53: regnet sehr viel.

00:30:55: Für mein Geschmack aber okay.

00:30:56: Nee, ich weiß nicht so... Es ist ein bisschen andere Atmosphäre.

00:31:01: Aber ich weiß noch nicht so.

00:31:04: vielleicht Oliver, ob du eine andere Erfahrung hast.

00:31:06: Das sehe ich genauso die anderen Atmosphäre.

00:31:09: Ich schätze am Leben hier zu merken, wie die Gesellschaft hier tickt und wie die Menschen miteinander umgehen.

00:31:17: Die kulturellen Unterschiede wahrzunehmen, zu genießen und darüber mehr zu erfahren.

00:31:23: Das Bastenland in dem sich Herr San Sebastian findet ist eine wunderschöne Landschaft und ganz spannende Kultur.

00:31:33: Und es ist schon für mich ein toller Erfahrung hier zu leben.

00:31:36: Und ein toler Ausgleich zur LLM-Kompression!

00:31:42: Passt gut zusammen.

00:31:43: Sehr schön!

00:31:44: Wir drücken euch die Daumen auch für die Finanzierungsrunde, vielen herzlichen Dank.

00:31:49: Schöne Grüße nach San Sebastian und schönen Grüßen nach Linz Johannes.

00:31:53: Herzlichen Dank auch von mir.

00:31:55: liebe

00:31:55: Grüße aus Linz.

00:31:57: Vielen Dank.

00:31:57: Danke viele Grüße noch Österreich und noch Deutschland.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.