Ein visuelles Analysesystem, das es Praktikern des maschinellen Lernens ermöglicht, die Verwirrungsmatrix-Visualisierung auf hierarchische und Multi-Output-Labels zu verallgemeinern.
Beim maschinellen Lernen (ML) ist die Modellbewertung der schwierigste Schritt. Die Konfusionsmatrix ist eine der weltweit verwendeten Leistungsmetriken, um das Modell für Klassifizierungsaufgaben zu bewerten.
Diese Arbeit verallgemeinert die Fähigkeiten der Konfusionsmatrix. Eine Algebra wird erstellt, indem formative Forschung verwendet wird, um mehr Variationen der Konfusionsmatrix bereitzustellen. Ein visuelles Analysetool NEO wird entwickelt, das es Forschern ermöglicht, Verwirrungsmetriken flexibel zu erstellen, miteinander in Beziehung zu setzen und zu teilen. Schließlich wird die Nützlichkeit des Modells anhand von drei Bewertungssituationen demonstriert, die Einzelpersonen dabei helfen können, die Leistung des Modells und verborgene Verwirrungen effektiv zu erkennen. Die zukünftige Verbesserung der Arbeit besteht in der skalierten Visualisierung der Verwirrungsmatrix, der automatischen Erkennung der Untermatrix, der interaktiven Analyse unter Verwendung von Metadaten, dem Vergleich der Modellverwirrung über den Zeitraum und der Erstellung von Datensätzen aus Verwirrungen.
Die Anwendbarkeit der Kausalanalyse basierend auf zeitlich verschobener (verzögerter) Pearson-Korrelation, angewendet auf diverse Zeitreihen unterschiedlicher Art im Kontext des Problems der Finanzmarktprognose. Auf die theoretische Diskussion folgt die Beschreibung des praktischen Ansatzes für spezifische Umgebungen von Zeitreihendaten mit unterschiedlicher Natur und geringer Dichte, wie sie für Umgebungen von Finanzmärkten angewendet werden. Die Daten umfassen verschiedene Finanzmetriken, die aus Rohmarktdaten berechnet werden können, wie Echtzeit-Trades und Momentaufnahmen des Limit-Orderbuchs sowie Metriken, die anhand von Social-Media-Nachrichtenströmen bestimmt werden, wie Stimmung und verschiedene kognitive Verzerrungen. Der Ansatz wird durch die Präsentation des algorithmischen Rahmens für die Datenerfassung und -analyse untermauert und mit experimentellen Ergebnissen abgeschlossen.
Quelle: PDF
Fujitsu hat den weltweit schnellsten Quantencomputer-Simulator entwickelt, Dieser nutzt dieselbe CPU wie Fugaku, der weltweit schnellste Supercomputer. Der neue Quantensimulator wird als Brücke zur Entwicklung von Quantencomputer-Anwendungen dienen.
Fujitsu hat jetzt den weltweit schnellsten 36-Qubit-Quantensimulator entwickelt, der dieselbe CPU nutzt wie der Supercomputer Fugaku.
Bis September 2022 hat sich Fujitsu zum Ziel gesetzt, einen 40-Qubit-Quantensimulator für Anwendungen in den Bereichen Finanzen und Arzneimittelforschung zu entwickeln.
Fujitsu wird in Zusammenarbeit mit Fujifilm zu Quantencomputing-Anwendungen im Bereich der Materialwissenschaft und der computergestützten Chemie forschen.
Auf einem Clustersystem mit dem Supercomputer Fujtsu PrimeHPC FX 700 ist dieser in der Lage, 36-Qubit-Quantenschaltkreise zu verarbeiten. Er wird von der gleichen A64FX-CPU angetrieben wie Fugaku, der weltweit schnellste Supercomputer von Fujitsu. Der neu entwickelte Quantensimulator kann die Quantensimulator-Software Qulacs mit hoher Geschwindigkeit parallel ausführen. Er erreicht bei 36 Qubit-Quantenoperationen etwa die doppelte Leistung anderer namhafter Quantensimulatoren.
Quelle: digitalbusiness
Befürworter der Richtlinien begrüßen diese angestrebte Minimierung der Risiken, die von hochriskanten KI-Systemen ausgehen. Denn Transparenz und klare Vorgaben sind wichtig, um Vertrauen und Akzeptanz für Künstliche Intelligenz zu schaffen. Darüber hinaus erhalten KI-Anbieter dank einheitlicher Richtlinien und höherer Rechtssicherheit Zugang zu größeren Märkten.
Doch diese Regulierungen stoßen nicht nur auf Zuspruch. Kritiker bemängeln, dass die EU die noch junge KI-Technologie überreguliere. Die Kommission betont aber, dass die meisten Anwendungen nicht riskant und damit vom Rechtsakt nicht betroffen seien.
Ähnlich wie bei der DSGVO, die seit 2018 in der EU gilt und weltweit Nachahmer fand, will die Behörde auch beim Umgang mit Künstlicher Intelligenz globale Maßstäbe setzen. Doch zunächst müssen die EU-Staaten und das Europaparlament über die Vorschläge verhandeln. Es dürfte also noch eine Weile dauern, ehe in der EU neue Regeln gelten. Achim Berg, Präsident des Branchenverbandes Bitkom mahnt jedoch zur Eile: „Unsicherheit und langwierige Abstimmungsprozesse würden dringend notwendige Investitionen verzögern oder verhindern.“
Die Schaffung einheitlicher Standards kann nicht nur dafür sorgen, dass die EU international wettbewerbsfähig bleibt, sondern auch den Weg für ethische KI ebnen. Die Kommission positioniert sich mit der Verordnung entschieden gegen Manipulation oder Beeinflussung von Personen durch KI. Doch wo verläuft die Grenze zwischen Manipulation und dem erlaubten Betätigungsfeld von Künstlicher Intelligenz?
Im April 2021 veröffentlichte die Europäische Kommission ihren Entwurf für ein Gesetz über künstliche Intelligenz , das den weltweit ersten allumfassenden Regulierungsrahmen für KI schaffen soll. Angesichts der Tatsache, dass die Entwicklung von KI noch in den Kinderschuhen steckt und das Gesetz auf dem Vorsorgeprinzip beruht, wird der AIA in seiner derzeitigen Fassung wahrscheinlich die Innovation und Einführung von KI in der EU verlangsamen.
Da Umfang und Geltungsbereich des Gesetzes enorm sind, bahnt es sich langsam seinen Weg durch die EU-Institutionen. Inzwischen sind einige der wichtigsten Themen zur Änderung des Gesetzes sowie die größten Streitpunkte zwischen den verschiedenen politischen Akteuren, die an der Ausarbeitung und schließlich der Verabschiedung des Gesetzes beteiligt sind, aufgetaucht.
Der Ministerrat, der die EU-Mitgliedstaaten vertritt, hat eine Reihe von Änderungen vorgeschlagen, um das AIA etwas weniger belastend zu machen. Das Europäische Parlament ist politisch gespalten, daher sind die unterschiedlichen Positionen seiner Protagonisten ein Frühindikator für die größten Meinungsverschiedenheiten über Zweck und Inhalt des Gesetzes. In Zukunft werden sich die wichtigsten Debatten darüber, wie die endgültige Fassung des Gesetzes aussehen wird, wahrscheinlich um die Definition von KI drehen, welche Aktivitäten und Sektoren als „hohes Risiko“ eingestuft werden und den Einsatz von Gesichtserkennungstechnologien.
Nachdem die Kommission ein Gesetz vorgeschlagen hat, geht es in die Hände des Ministerrates und des Europäischen Parlaments über, die parallel den Entwurf prüfen und ein Verfahren einleiten, Änderungen vorzuschlagen und schließlich darüber abzustimmen. Beim AIA ging der Rat schneller voran als das Parlament, wobei der slowenische Vorsitz im November 2021 die erste Reihe von Kompromissen vorlegte, bevor der französische Vorsitz zwei weitere Kompromisse vorlegte dieses Jahr. Dies sind zwar keine offiziellen Positionen des Rates und stellen keinen formellen Konsens zwischen den Mitgliedstaaten dar, sie geben jedoch die Richtung an, in die sie gehen werden. Die meisten Vorschläge des Rates spiegeln den Wunsch wider, die AIA praktikabler zu machen und einige der problematischen Anforderungen für „Hochrisiko“-KI im ursprünglichen Entwurf einzudämmen. Zum Beispiel:
Der Rat möchte die Anforderung an Anbieter, KI-Trainings- und -Validierungsdaten auf Vorurteile zu untersuchen, einschränken, um nur „Vorurteile abzudecken, die voraussichtlich die Gesundheit und Sicherheit von Personen beeinträchtigen oder zu Diskriminierung nach Unionsrecht führen“. Diese präzisere Formulierung verknüpft die Compliance-Verpflichtung enger mit den tatsächlichen Nutzerrisiken.
Der Rat adressiert die Anforderung, dass Trainings- und Validierungsdaten fehlerfrei sein müssen – weithin als unmöglich hohe Messlatte kritisiert –, indem er klarstellt, dass fehlerfreie Daten nur „im bestmöglichen Umfang“ erforderlich sind.
Der Rat schlägt vor, die detaillierten technischen Dokumentationspflichten zu verringern, also den Papierkram, den sie ausfüllen müssen, um die Einhaltung des Gesetzes nachzuweisen. Der Rat schlug vor, dass KMU und Start-ups stattdessen nur verpflichtet werden, „Dokumente zu sammeln, die denselben Zielen dienen [dh Einhaltung des AIA]“, solange ihre nationale Durchsetzungsbehörde zustimmt. Dies wirft natürlich die Frage auf, warum dieser Standard nicht auf alle Akteure angewendet wird, die dem AIA unterliegen.
Das ursprüngliche AIA beinhaltet eine Verpflichtung für KI-Systeme, „interpretierbare“ Ausgaben bereitzustellen, was technisch nicht immer möglich ist. Der Rat schlägt vor, dies durch ein sinnvolleres Mandat für die Benutzer zu ersetzen, „das System zu verstehen und angemessen zu verwenden“. Ebenso empfiehlt der Rat, dass eine menschliche Aufsicht über KI-Systeme nur dann erforderlich ist, wenn sie verhältnismäßig und angemessen ist.
Die meisten dieser Änderungen würden den ursprünglich von der Kommission vorgeschlagenen Verpflichtungen für KI mit „hohem Risiko“ etwas von der Schärfe nehmen und sicherstellen, dass die Anforderungen, die das Gesetz an solche Systeme stellt, realistisch und praktikabel sind. Allerdings sind nicht alle Änderungsanträge hilfreich. Beispielsweise fordert der französische Kompromisstext eine Datenminimierung in der KI , indem Systeme verpflichtet werden, die Erfassung personenbezogener Daten auf das unbedingt Notwendige zu beschränken. Eine solche Anforderung steht im Widerspruch zu vielen Formen der KI-Forschung und -Entwicklung und stellt eine direkte Beeinträchtigung der Designentscheidungen von KI-Entwicklern dar.
An der parlamentarischen Front wurden kürzlich zwei Berichte zum AIA veröffentlicht, einer vom Rechtsausschuss des Europäischen Parlaments und ein weiterer vom Industrieausschuss des Parlaments. Besonders interessant an diesen Berichten ist, dass sie konkrete Änderungsanträge enthalten, die einige der Schlüsselbereiche abstecken, um die im weiteren Jahresverlauf voraussichtlich die intensivsten gesetzgeberischen Auseinandersetzungen geführt werden.
Erstens, wie sollte die AIA KI definieren? Beide Berichte ändern die Definition, um sie mit der OECD-Definition von KI in Einklang zu bringen, ein begrüßenswerter Schritt, da sie enger ist als die der EU und somit das Gesetz zielgerichteter machen würde: Anstatt die meisten Software zu regulieren, empfehlen die beiden parlamentarischen Ausschüsse, dass die AIA dies tun sollte regulieren „maschinenbasierte Systeme“, die mit einem gewissen Grad an Autonomie agieren. Darüber hinaus schlagen die Berichte vor, die Liste der KI-Methoden, die die AIA abdeckt, auf maschinelles Lernen und Optimierung zu beschränken und nicht auf alle modernen Formen der Softwareentwicklung . Diejenigen, die immer noch an die ursprüngliche Definition der Kommission glauben, sind nun gezwungen , ihre Hand offen zu legen, dass sie das AIA als ein universelles „Softwaregesetz“ sehen, das dem der Kommission offenkundig widersprichterklärte Zweck des Gesetzes, nämlich ausschließlich KI zu regeln. Selbst diejenigen, die gegen Definitionsänderungen sind, akzeptieren die Prämisse, dass der AIA kein allgemeiner „Algorithmusakt“ werden sollte. Der Berichterstatter des Binnenmarktausschusses des Parlaments hat jedoch erklärt ; „Wir stehen unter Druck, den Geltungsbereich der Definition einzuschränken. Aber ich glaube nicht, dass wir uns von dort, wo es jetzt ist, sehr weit entfernen werden.“ Es scheint daher, dass der Geltungsbereich des AIA in Zukunft zu einer großen Meinungsverschiedenheit werden wird, wobei das Parlament sich wahrscheinlich weigern wird, sich von der aktuellen Definition von KI zu lösen .
Zweitens, wie sollte der AIA die Definition „hohes Risiko“ operationalisieren? Die Kommission hat den AIA so konzipiert, dass er mehr Anforderungen an Systeme stellt, die als „hohes Risiko“ eingestuft werden. Dies wirft die Frage auf, wie hoch die Schwelle für Systeme mit „hohem Risiko“ sein sollte. Der Ansatz der Kommission besteht darin, ganze Wirtschaftszweige unter Verdacht zu setzen, indem sie sie als „hohes Risiko“ bezeichnen, wenn sie KI einsetzen, was die Kosten des AIA weit über die bequemerweise konservativen Analysen kommissionsfreundlicher Institutionen hinaustreiben würde. Stattdessen schlägt der Rechtsausschuss einen weitaus vernünftigeren Ansatz vor. Der Ausschuss empfiehlt, dass der AIA nur für Systeme gilt, die sowohl in „Hochrisiko“-Sektoren eingesetzt werden, als auch dort, wo der beabsichtigte Zweck des Systems bestehterheblicher Schaden wahrscheinlich (dh wenn ein KI-System in solchen Sektoren eingesetzt wird, „so dass ein erheblicher Schaden wahrscheinlich entsteht“). Dies ist sinnvoll, da das Ziel des AIA darin besteht, potenziell schädliche Nutzungen von KI zu regulieren, nicht herauszugreifen bestimmte Wirtschaftsbereiche für größere Regulierungslasten, wenn sie KI nutzen wollen. Darüber hinaus hebt der Bericht des Rechtsausschusses das Verbot der Kommission auf, „unterschwellige Techniken jenseits des Bewusstseins einer Person“ auf eine „Art und Weise, die psychischen Schaden verursacht“, aufzuheben. Dies ist eine nicht praktikableIdee, die am Ende viele Formen von Marketing und Werbung sowie das Design von Benutzeroberflächen abdecken könnte, die schließlich darauf abzielen, die Wahl der Verbraucher zu beeinflussen, was durch die Subjektivität von Begriffen wie „psychischer Schaden“ noch verstärkt wird. Der Rechtsausschuss ersetzt diesen Teil des AIA durch ein Verbot von KI-Systemen, die darauf abzielen, „das Verhalten einer Person erheblich und wesentlich zu verfälschen oder dieser Person direkt Schaden zuzufügen“.
Drittens, während das Parlament entschieden gegen die Gesichtserkennung aus der Ferne in der Öffentlichkeit ist (selbst wenn Sicherheitsvorkehrungen vorhanden sind und aus zwingenden Gründen der öffentlichen Sicherheit), möchte die Mehrheit der Mitgliedstaaten die Ausnahmeregelungen für die Strafverfolgung beibehalten oder erweitern (mit Ausnahme von Ausreißern wie Deutschland ). Wie diese Debatte ausgehen wird, bleibt abzuwarten.
Was kommt als nächstes für die AIA? Der verbleibende Bericht des parlamentarischen Ausschusses, der gemeinsam von den Ausschüssen für Binnenmarkt und Bürgerrechte verfasst wurde, wird voraussichtlich im April veröffentlicht. Die Frist für Änderungen des AIA ist der Mai. In einer idealen Welt arbeitet das Parlament einen Kompromiss aus, um im November eine endgültige Abstimmung abzuhalten. Angesichts der schieren Anzahl der beteiligten parlamentarischen Ausschüsse erscheint dieser Zeitplan jedoch ehrgeizig. Eine wichtige Frage ist, wie viel Spielraum für Kompromisse bei der Schaffung unternehmensfreundlicherer Regeln im AIA besteht. Was den Rat betrifft, so betrachtet die französische Ratspräsidentschaft (die noch bis Ende Juni läuft) die KI zwar als Priorität, aber als ihr ursprüngliches Zielbereits im März einen formellen Kompromisstext vorzulegen, ist fraglich. Angesichts der unterschiedlichen Meinungen zur Regulierung von KI wird es wahrscheinlich länger dauern, bis eine einheitliche Position unter den EU-Mitgliedstaaten erreicht wird . Daher ist es höchst unwahrscheinlich, dass der AIA frühestens 2023 verabschiedet wird. Nach seiner Verabschiedung vergehen weitere zwei Jahre bis zum Inkrafttreten des AIA. Das bedeutet, dass Unternehmen damit rechnen sollten, nach 2025 gesetzeskonform zu werden.
Source: www.netspresso.ai
Source: www.nota.ai
Dieses in Südkorea ansässige KI-Startup, Nota AI, revolutioniert den KI-Bereich mit seiner proprietären Hardware-fähigen KI-Optimierungsplattform, um den Entwicklungsprozess von leichtgewichtigen KI-Modellen zu automatisieren.
Die Dienste von Nota ermöglichen es Benutzern, die Komprimierung von KI-Modellen mithilfe von benutzerdefinierten Parametern anzupassen, z. B. die Optimierung für bestimmte Geräte auf Basis von Nvidia, Raspberry Pi und anderen Anbietern. Im Vergleich zum nicht optimierten Modell behauptet Nota, dass die Inferenzleistung um das Achtfache gesteigert werden kann, während weniger Strom verbraucht wird.
Projekt: https://xuchen-ethz.github.io/gdna/
Papier: 2022 gdna downloads main.pdf
Die Forscher am Max-Planck-Institut für Intelligente Systeme entwickelten gDNA, ein generatives 3D-Modell des bekleideten Menschen, das eine breite Palette bekleideter Menschen mit präzisen Falten und expliziter Haltungskontrolle erzeugen kann. Das Lernen aus nur wenigen gestellten Scans pro Teilnehmer ist mit implizitem Multi-Subjekt-Forward-Skinning möglich. Das Team zeigt, dass gDNA modernste Ansätze in einer Vielzahl von Anwendungen, einschließlich Animation und 3D-Anpassung, übertrifft.
Aufsatz: Dokument
Roboter brauchen jetzt jemanden, der ihnen sagt, welche Aufgabe sie in einer Umgebung ausführen müssen. Die Roboter werden jedoch die Fähigkeit des unüberwachten Lernens benötigen, um sich in Zukunft an sich ändernde Einstellungen anzupassen.
Die KI ist derzeit auf Verbindungen zu externen Servern angewiesen, um die umfangreiche Datenverarbeitung durchzuführen, und es sind komplexe Berechnungen erforderlich, um die KI-Verarbeitung auszuführen oder unüberwachtes Lernen durchzuführen. Aktuelle Forschungsarbeiten versuchen, die Größe und Komplexität von Schaltkreisen künstlicher Intelligenz zu reduzieren. Dies zielt auf Technologien wie tragbare Handgeräte ab, in die die Schaltung integriert sein kann und die keine Internetverbindung erfordern.
der KI-Chip-Architekturen generiert, indem er aus bestehenden Plänen und Leistungsdaten schöpft.
Das Team von Google AI und UC Berkeley führt PRIME ein, um Probleme anzugehen. Dieser datengetriebene Optimierungsansatz generiert KI-Chiparchitekturen durch die Verwendung von Protokolldaten ohne weitere Hardwaresimulation. Dadurch werden zeitaufwändige Simulationen überflüssig, und Daten aus früheren Experimenten können auf Null-Schuss-Weise wiederverwendet werden, selbst wenn sich der Satz von Zielanwendungen ändert, und sogar für unsichtbare, aber mit dem Trainingssatz verwandte Anwendungen. PRIME kann unter Verwendung von Daten aus früheren Simulationen und einer Datenbank von tatsächlich gebauten Beschleunigern und einer Datenbank von nicht realisierbaren oder fehlgeschlagenen Beschleunigerdesigns trainiert werden.
ein KI-Tool zur Erweiterung großer Sprachmodelle (GPT-3, Codex usw.) durch den Einsatz von Nachbearbeitungstechniken, die die Syntax und Semantik der Programme verstehen.
Jigsaw verarbeitet die englische Frage mit dem richtigen Kontext vor, um eine Eingabe zu erstellen, die an ein riesiges Sprachmodell gesendet werden kann, das als Blackbox betrachtet wird. Jigsaw untersucht, ob der vom Modell generierte Ausgabecode dem E/A-Beispiel entspricht. Wenn das der Fall ist, ist Jigsaw komplett! Wenn der Code fehlschlägt, beginnt die Reparatur im Nachbearbeitungsschritt. Jigsaw verwendet drei Arten von Transformationen, um den Code während der Nachbearbeitung zu korrigieren. Jede dieser Modifikationen wird durch die Fehlerszenarien in früheren Modellen angetrieben.
Forscher von Microsoft und der CMU stellen „COMPASS“ vor: Eine groß angelegte Vortrainings-Pipeline für allgemeine Zwecke für Wahrnehmungs-Aktions-Schleifen in autonomen Systemen.
Quelle: https://www.microsoft.com/en-us/research/blog/compass-contrastive-multimodal-pretraining-for-autonomous-systems/
Menschen haben die wesentliche kognitive Fähigkeit, die Welt über multimodale sensorische Eingaben zu verstehen und diese Fähigkeit zu nutzen, um eine Vielzahl von Aktivitäten auszuführen. Autonome Agenten können den Grundzustand einer Umgebung durch viele Sensoren auf vergleichbare Weise beobachten und bewerten, wie sie eine Aufgabe richtig erledigen. Lokalisierung (oder „wo bin ich?“) ist eine grundlegende Frage, die ein autonomer Agent vor der Navigation beantworten muss, und sie wird häufig durch visuelle Odometrie beantwortet.
Kollisionsvermeidung und die Kenntnis der zeitlichen Entwicklung ihres Zustands in Bezug auf die Umgebung sind für hochdynamische Aufgaben wie Autorennen erforderlich. Infolgedessen ist es wahrscheinlich, vortrainierte Allzweckmodelle für autonome Systeme unabhängig von Funktionen und Formfaktoren zu erstellen.
Künstliche Intelligenz kann aus Daten genaue Erkenntnisse ziehen. Dasselbe gilt im politischen Moment. Im gleichen Kontext können wir die Wahlkämpfe von Donald Trump in den USA und Narendra Modi in Indien beobachten. Infolgedessen sind diese beiden die besten Beispiele für KI-Analytik, die die politische Zugehörigkeit der Massen geprägt haben.
Dasselbe gilt für die Entwicklung des Interesses sowohl an der Nutzung von KI-Innovationen als auch an den erwarteten Gefahren für Menschen oder die Gesellschaft. Die politischen Entscheidungsträger müssen eine Strategie wählen, um eine breite Palette von KI-Fortschritten und -Anwendungen zu überwachen, die sich drastisch auf die Gesellschaft auswirken und im Allgemeinen viele offene Türen und Vorteile eröffnen werden.
Roboter macht Pizzaioli
Ein Roboter, der mit formbaren Materialien umzugehen weiß und die perfekte Pizza backt: Forscher des Massachusetts Institute of Technology haben zusammen mit der Carnegie Mellon University und der University of California, San Diego, einen solchen Roboter präsentiert.
Ein Lehrer-Algorithmus löst jeden Schritt, den der Roboter ausführen muss, um die Aufgabe zu erledigen. Dann trainiert er eine Schüler-Software auf der Basis von maschinellem Lernen, die alle Einzelschritte in sich aufnimmt, um sie später zu wiederholen, etwa die Verwendung eines Nudelholzes.
Die Forscher konnten zeigen, dass diese Methode, die sie DiffSkill nennen, zu komplexen Manipulationen befähigt, wie das Schneiden und Verteilen von Teig oder das Einsammeln von Teigstücken um ein Schneidebrett herum. "Diese Methode ist nahe an dem, wie wir als Menschen unser Handeln planen", sagt Yunzhu Li, Doktorand am Computer Science and Artificial Intelligence Laboratory (CSAIL) und Autor eines Papers, das DiffSkill vorstellt. "Wenn ein Mensch eine komplexe Aufgabe lösen muss, schreibt er sich nicht alle Details auf. Er nutzt einen übergeordneten Planer, der die einzelnen Schritte definiert und einige Zwischenziele festlegt, die es zu erreichen gilt."
Da sich die künstliche Intelligenz (KI) schnell weiterentwickelt, erfordert sie eine enorme Menge an Rechenressourcen, CO2-Fußabdruck und technischem Aufwand. Es besteht eine wachsende Nachfrage nach Lösungen für maschinelles Lernen (ML), mit denen KI am Netzwerkrand ausgeführt werden kann, ohne die Hardware zu überlasten. Die meisten vorhandenen KI-Lösungen sind nicht leicht genug, um auf Edge-Geräten ausgeführt zu werden; daher ist dies eine Hürde.
Das Startup für die Bereitstellung von ML-Modellen hat seine KI-Bereitstellungsplattform für Edge-Dienste mit einer Startfinanzierung von 10 Millionen US-Dollar gestartet. Die Finanzierungsrunde wurde von GGV Capital geleitet. OmniML wird diese Mittel verwenden, um sein Team für maschinelles Lernen zu erweitern und seine Softwareentwicklung zu verbessern.
Verweise: