Thursday, May 23, 2024

Xyna.AI auf der MLCon Berlin, Xyna.AI auf der OpenRheinMain in Darmstadt, Startschuss fĂŒr private Xyna.AI GPU-Instanz

Xyna Bulletin #06

Liebe Kunden, Partner und Freunde,

unsere AktivitĂ€ten im Bereich der kĂŒnstlichen Intelligenz nehmen Fahrt auf! In der zweiten JahreshĂ€lfte sind wir unter dem Label Xyna.AI gleich auf zwei Konferenzen aktiv: im September auf der OpenRheinMain (ORM) in Darmstadt und im November auf der MLCon in Berlin.

Bereits seit einiger Zeit entwickeln wir ein eigenes Lösungsportfolio fĂŒr KI-Anwendungen: aufbauend auf der Xyna.com Cloud-Plattform entsteht hierfĂŒr aktuell eine eigene private Xyna.AI GPU-Instanz.

Viel Spaß beim Lesen!

Mit freundlichen GrĂŒĂŸen aus Mainz
Philipp

LinkedIn
Xyna GmbH
Philipp Dominitzki

PS: Sie kennen Kolleg*innen, fĂŒr die das Thema Xyna auch spannend ist? Dann gerne weitersagen! Eine kurze Antwort mit Kontaktdaten an bulletin_at_xyna.com reicht. Falls Sie aber kein Interesse haben, genĂŒgt eine kurze E-Mail zurĂŒck, und wir nehmen Sie aus dem Verteiler.

Xyna.AI auf der MLCon Berlin

Die MLCon (https://mlconference.ai/berlin/) ist eine fĂŒhrende Konferenz fĂŒr Machine Learning-Technologien und Innovationen im Bereich kĂŒnstlicher Intelligenz. Sie findet vom 27. – 30. November in Berlin statt.

MLCon, Conference & Training

Wir sind in diesem Jahr als Gold-Sponsor mit dabei! Alexander wird eine Keynote zum Thema „AI beyond the mainstream“ halten. Dabei wird er auf einer strategischen Ebene auf den Wert (und die LeistungsfĂ€higkeit) von offenen Komponenten eingehen, um sich nicht von kommerziellen Blackbox-Angeboten abhĂ€ngig zu machen — was fĂŒr jedes Unternehmen von Relevanz ist, das eigene Innovationen und Werte schĂŒtzen und bewahren möchte.

ZusĂ€tzlich bieten Alexander und Moritz unter dem Titel „Pair-Programming with AI?!“ eine interaktive Session an, in der wir hinter die Kulissen blicken und demonstrieren, wie wir die GenAI-Erweiterung XyPilot fĂŒr assistiertes Deep Modeling mit Xyna Factory unter diesem Paradigma realisiert haben.

MLCon Speakers

Auf der MLCon werden wir neben einer Reihe prominenter Namen aus dem „Establishment“ der AI-Industrie auftreten — es wird spannend, wie unsere Positionen aufgenommen und diskutiert werden. Wir freuen uns in jedem Fall auf einige gesprĂ€chsintensive Tage in Berlin!

Wer dem Ganzen beiwohnen möchte — aktuell ist Early Bird-Zeit, Teilnahmekarten können noch recht gĂŒnstig erworben werden. Und wer nicht in Berlin sein kann, sich aber fĂŒr unsere AktivitĂ€ten interessiert: gerne ganz unkompliziert per E-Mail melden.

Xyna.AI auf der OpenRheinMain (ORM) Darmstadt

Noch vor der MLCon werden wir am 22. September 2023 auf der OpenRheinMain (ORM) Konferenz https://openrheinmain.org fĂŒr Open Source und Emerging Digital Technologies dabei sein.

OpenRheinMain 2023; September 22nd, 2023; Darmstadt University of Applied Sciences, Germany

Wie schon 2022 sind wir als Gold-Sponsor u.a. neben der Deutschen Telekom ein HauptunterstĂŒtzer der Konferenz, die bereits seit einigen Jahren sehr erfolgreich aus dem Fachbereich Informatik der Hochschule Darmstadt aus organisiert wird.

h_da member of eut

Auch hier werden wir in einer Keynote, in einer begleitenden Session und in einem interaktiven Workshop auf unseren Ansatz von Xyna.AI eingehen: die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle fĂŒr anspruchsvolle Lösungen und Pipelines, mit denen sich Anwendungen im Bereich kĂŒnstlicher Intelligenz sicher und ohne proprietĂ€re Black Boxes realisieren lassen.

Die Agenda der ORM wird Ende August veröffentlicht. Die Teilnahme ist kostenfrei möglich, die hierfĂŒr notwendige Registrierung ist bereits geöffnet. Wir wĂŒrden uns freuen, den ein oder die andere Newsletter-EmpfĂ€nger*in dort begrĂŒĂŸen zu dĂŒrfen!

Startschuss fĂŒr private Xyna.AI GPU-Instanz

KI braucht Rechenleistung! Die aktuelle Generation von kĂŒnstlicher Intelligenz mit ihren extrem gewachsenen ModellgrĂ¶ĂŸen wurde erst durch die Fortschritte bei CPU- und GPU-Performance ermöglicht.

Auch fĂŒr Xyna.AI benötigen wir ausreichende Ressourcen, um unsere innovativen Algorithmen entwickeln zu können. Denn obwohl wir uns auf Verfahren mit hoher Berechnungseffizienz konzentrieren — dabei sind wir sowohl ökonomisch als auch ökologisch motiviert — sind bei den aktuellen ModellgrĂ¶ĂŸen die notwendigen Rechenleistungen noch immer erheblich.

Gleichzeitig wollen wir (wie auch andere Unternehmen) unsere Innovationen nicht unbedingt bei den großen Hyperscalern laufen lassen, Stichworte Informationssicherheit und Geheimschutz. Grade bei Anwendungen von KI im Bereich kritischer Infrastruktur ist es von existenzieller Wichtigkeit, solche Aspekte von Beginn an zu berĂŒcksichtigen und sensibel mit entsprechenden Daten umzugehen.

Computerchip

Deswegen haben wir damit begonnen, eigene Compute-Instanzen fĂŒr AI auf der Xyna.com-Plattform aufzubauen. Mit ĂŒppiger CPU-Leistung und GPU-Beschleunigung ausgestattet, bieten sie uns die Möglichkeit, unsere Xyna.AI-Pipelines unter eigener Kontrolle und SouverĂ€nitĂ€t ĂŒber Verfahren und Daten laufen zu lassen.

Damit können wir selbstverstĂ€ndlich nicht mit Google oder AWS konkurrieren. Aber schon jetzt bilden diese Instanzen die grĂ¶ĂŸte Menge an Rechenleistung, die unser Unternehmen je besessen hat. Und wir waren schon in den Zeiten von Data Mining und Parallel Computing nie schlecht ausgestattet.

Auf der MLCon in Berlin (siehe Beitrag oben) werden wir erlÀutern, dass wir unseren Fokus auf die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle setzen.

Stanford University Berkeley Unversity of Carlifornia

Diese sind teils den kommerziellen Standardlösungen von Anbietern wie OpenAI ebenbĂŒrtig und in mancher Hinsicht sogar ĂŒberlegen. Damit reiht sich Xyna.AI in unsere Produktphilosophie ein, dass Xyna Factory auf offenen Komponenten basiert und selbst auf GitHub unter einer OpenSource-Lizenz verfĂŒgbar ist.

Auch hier gilt: wer mehr wissen möchte, spricht uns gerne jederzeit an oder schickt uns eine E-Mail.