Thursday, May 23, 2024

Xyna.AI auf der MLCon Berlin, Xyna.AI auf der OpenRheinMain in Darmstadt, Startschuss f├╝r private Xyna.AI GPU-Instanz

Xyna Bulletin #06

Liebe Kunden, Partner und Freunde,

unsere Aktivit├Ąten im Bereich der k├╝nstlichen Intelligenz nehmen Fahrt auf! In der zweiten Jahresh├Ąlfte sind wir unter dem Label Xyna.AI gleich auf zwei Konferenzen aktiv: im September auf der OpenRheinMain (ORM) in Darmstadt und im November auf der MLCon in Berlin.

Bereits seit einiger Zeit entwickeln wir ein eigenes L├Âsungsportfolio f├╝r KI-Anwendungen: aufbauend auf der Xyna.com Cloud-Plattform entsteht hierf├╝r aktuell eine eigene private Xyna.AI GPU-Instanz.

Viel Spa├č beim Lesen!

Mit freundlichen Gr├╝├čen aus Mainz
Philipp

LinkedIn
Xyna GmbH
Philipp Dominitzki

PS: Sie kennen Kolleg*innen, f├╝r die das Thema Xyna auch spannend ist? Dann gerne weitersagen! Eine kurze Antwort mit Kontaktdaten an bulletin_at_xyna.com reicht. Falls Sie aber kein Interesse haben, gen├╝gt eine kurze E-Mail zur├╝ck, und wir nehmen Sie aus dem Verteiler.

Xyna.AI auf der MLCon Berlin

Die MLCon (https://mlconference.ai/berlin/) ist eine f├╝hrende Konferenz f├╝r Machine Learning-Technologien und Innovationen im Bereich k├╝nstlicher Intelligenz. Sie findet vom 27. ÔÇô 30. November in Berlin statt.

MLCon, Conference & Training

Wir sind in diesem Jahr als Gold-Sponsor mit dabei! Alexander wird eine Keynote zum Thema ÔÇ×AI beyond the mainstreamÔÇť halten. Dabei wird er auf einer strategischen Ebene auf den Wert (und die Leistungsf├Ąhigkeit) von offenen Komponenten eingehen, um sich nicht von kommerziellen Blackbox-Angeboten abh├Ąngig zu machen — was f├╝r jedes Unternehmen von Relevanz ist, das eigene Innovationen und Werte sch├╝tzen und bewahren m├Âchte.

Zus├Ątzlich bieten Alexander und Moritz unter dem Titel ÔÇ×Pair-Programming with AI?!ÔÇť eine interaktive Session an, in der wir hinter die Kulissen blicken und demonstrieren, wie wir die GenAI-Erweiterung XyPilot f├╝r assistiertes Deep Modeling mit Xyna Factory unter diesem Paradigma realisiert haben.

MLCon Speakers

Auf der MLCon werden wir neben einer Reihe prominenter Namen aus dem ÔÇ×EstablishmentÔÇť der AI-Industrie auftreten — es wird spannend, wie unsere Positionen aufgenommen und diskutiert werden. Wir freuen uns in jedem Fall auf einige gespr├Ąchsintensive Tage in Berlin!

Wer dem Ganzen beiwohnen m├Âchte — aktuell ist Early Bird-Zeit, Teilnahmekarten k├Ânnen noch recht g├╝nstig erworben werden. Und wer nicht in Berlin sein kann, sich aber f├╝r unsere Aktivit├Ąten interessiert: gerne ganz unkompliziert per E-Mail melden.

Xyna.AI auf der OpenRheinMain (ORM) Darmstadt

Noch vor der MLCon werden wir am 22. September 2023 auf der OpenRheinMain (ORM) Konferenz https://openrheinmain.org f├╝r Open Source und Emerging Digital Technologies dabei sein.

OpenRheinMain 2023; September 22nd, 2023; Darmstadt University of Applied Sciences, Germany

Wie schon 2022 sind wir als Gold-Sponsor u.a. neben der Deutschen Telekom ein Hauptunterst├╝tzer der Konferenz, die bereits seit einigen Jahren sehr erfolgreich aus dem Fachbereich Informatik der Hochschule Darmstadt aus organisiert wird.

h_da member of eut

Auch hier werden wir in einer Keynote, in einer begleitenden Session und in einem interaktiven Workshop auf unseren Ansatz von Xyna.AI eingehen: die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle f├╝r anspruchsvolle L├Âsungen und Pipelines, mit denen sich Anwendungen im Bereich k├╝nstlicher Intelligenz sicher und ohne propriet├Ąre Black Boxes realisieren lassen.

Die Agenda der ORM wird Ende August ver├Âffentlicht. Die Teilnahme ist kostenfrei m├Âglich, die hierf├╝r notwendige Registrierung ist bereits ge├Âffnet. Wir w├╝rden uns freuen, den ein oder die andere Newsletter-Empf├Ąnger*in dort begr├╝├čen zu d├╝rfen!

Startschuss f├╝r private Xyna.AI GPU-Instanz

KI braucht Rechenleistung! Die aktuelle Generation von k├╝nstlicher Intelligenz mit ihren extrem gewachsenen Modellgr├Â├čen wurde erst durch die Fortschritte bei CPU- und GPU-Performance erm├Âglicht.

Auch f├╝r Xyna.AI ben├Âtigen wir ausreichende Ressourcen, um unsere innovativen Algorithmen entwickeln zu k├Ânnen. Denn obwohl wir uns auf Verfahren mit hoher Berechnungseffizienz konzentrieren — dabei sind wir sowohl ├Âkonomisch als auch ├Âkologisch motiviert — sind bei den aktuellen Modellgr├Â├čen die notwendigen Rechenleistungen noch immer erheblich.

Gleichzeitig wollen wir (wie auch andere Unternehmen) unsere Innovationen nicht unbedingt bei den gro├čen Hyperscalern laufen lassen, Stichworte Informationssicherheit und Geheimschutz. Grade bei Anwendungen von KI im Bereich kritischer Infrastruktur ist es von existenzieller Wichtigkeit, solche Aspekte von Beginn an zu ber├╝cksichtigen und sensibel mit entsprechenden Daten umzugehen.

Computerchip

Deswegen haben wir damit begonnen, eigene Compute-Instanzen f├╝r AI auf der Xyna.com-Plattform aufzubauen. Mit ├╝ppiger CPU-Leistung und GPU-Beschleunigung ausgestattet, bieten sie uns die M├Âglichkeit, unsere Xyna.AI-Pipelines unter eigener Kontrolle und Souver├Ąnit├Ąt ├╝ber Verfahren und Daten laufen zu lassen.

Damit k├Ânnen wir selbstverst├Ąndlich nicht mit Google oder AWS konkurrieren. Aber schon jetzt bilden diese Instanzen die gr├Â├čte Menge an Rechenleistung, die unser Unternehmen je besessen hat. Und wir waren schon in den Zeiten von Data Mining und Parallel Computing nie schlecht ausgestattet.

Auf der MLCon in Berlin (siehe Beitrag oben) werden wir erl├Ąutern, dass wir unseren Fokus auf die offenen und aus dem akademischen Bereich kommenden Algorithmen und Modelle setzen.

Stanford University Berkeley Unversity of Carlifornia

Diese sind teils den kommerziellen Standardl├Âsungen von Anbietern wie OpenAI ebenb├╝rtig und in mancher Hinsicht sogar ├╝berlegen. Damit reiht sich Xyna.AI in unsere Produktphilosophie ein, dass Xyna Factory auf offenen Komponenten basiert und selbst auf GitHub unter einer OpenSource-Lizenz verf├╝gbar ist.

Auch hier gilt: wer mehr wissen m├Âchte, spricht uns gerne jederzeit an oder schickt uns eine E-Mail.