KI-Systeme im Aufwind, aber zu welchem Preis?

ChatGPT und andere generative KI-Modelle erfreuen sich in letzter Zeit großer Beliebtheit, aber die Kosten für ihre Nutzung können enorm sein. Das wurde deutlich, als das kleine Startup Latitude mit seinem AI-Dungeon-Spiel, das fantastische Geschichten auf Basis von Benutzereingaben generiert, immer populärer wurde. CEO Nick Walton musste feststellen, dass die Kosten für die Wartung der textbasierten Rollenspiel-Software immer weiter anstiegen, je mehr Nutzer das Spiel spielten. Die Textgenerierung von AI Dungeon basierte auf Microsofts GPT-Sprachtechnologie, die von OpenAI entwickelt wurde. Zusätzlich verwendeten Content-Vermarkter das Spiel, um Werbetexte zu erstellen, was sich ebenfalls auf die KI-Rechnung von Latitude auswirkte.

KI – aber zu welchem Preis?
KI-Systeme im Aufwind, aber zu welchem Preis?

Laut Walton gab das Unternehmen 2021 fast 200.000 US-Dollar pro Monat für die generative KI-Software von OpenAI und Amazon Web Services aus, um mit den Millionen von Benutzeranfragen Schritt zu halten, die es jeden Tag verarbeiten musste. "Wir scherzten, dass wir menschliche Mitarbeiter und KI-Mitarbeiter hatten, und wir haben für jeden von ihnen ungefähr gleich viel ausgegeben", sagte Walton. "Wir haben jeden Monat Hunderttausende von Dollar für KI ausgegeben und wir sind kein großes Startup, also waren es sehr hohe Kosten."

Um die Kosten zu senken, wechselte Latitude Ende 2021 zu einer günstigeren, aber immer noch leistungsfähigen Sprachsoftware von AI21 Labs. Zusätzlich integrierte das Unternehmen kostenlose Open-Source-Sprachmodelle in seine Dienste. Die monatlichen KI-Rechnungen des Unternehmens sind dadurch auf unter 100.000 US-Dollar gesunken. Latitude berechnet seinen Spielern nun ein monatliches Abonnement für erweiterte KI-Funktionen, um die Kosten zu decken.

Die teuren KI-Rechnungen von Latitude zeigen, dass die Kosten für die Entwicklung und Wartung von generativen KI-Technologien außerordentlich hoch sein können, sowohl für Unternehmen, die die zugrunde liegenden Technologien entwickeln, als auch für diejenigen, die die KI verwenden, um ihre eigene Software zu betreiben. Dies ist eine unbequeme Realität für die Branche, da große Unternehmen wie Microsoft, Meta und Google ihr Kapital einsetzen, um einen Technologievorsprung zu erarbeiten, den kleinere Herausforderer nicht einholen können. Wenn die Marge für KI-Anwendungen aufgrund der hohen Rechenkosten dauerhaft kleiner ist als die bisherige Marge von Software-as-a-Service (SaaS), könnte dies den aktuellen Boom dämpfen.

Die hohen Kosten für Training und "Inferenz" - das tatsächliche Ausführen von KI-Modellen - bei großen Sprachmodellen sind strukturelle Kosten, die sich von früheren Computerbooms unterscheiden. Selbst wenn die Software erstellt oder trainiert ist, erfordert es immer noch eine enorme Menge an Rechenleistung, um große Sprachmodelle auszuführen, da sie jedes Mal, wenn sie eine Antwort auf eine Eingabeaufforderung zurückgeben, Milliarden von Berechnungen durchführen. Im Vergleich dazu waren die Kosten für die Bereitstellung und Wartung von Software in der Vergangenheit vergleichsweise gering.

Trotz dieser Herausforderungen bleibt die Nachfrage nach generativen KI-Technologien hoch, da sie Unternehmen helfen können, neue Produkte zu entwickeln und effektiver zu arbeiten. Die Branche arbeitet daran, die Kosten für die Nutzung von KI-Technologien zu senken, indem sie energieeffizientere Hardware entwickelt und neue Algorithmen und Architekturen einführt, die weniger Rechenleistung erfordern. Darüber hinaus kann die Open-Source-Community helfen, indem sie kostenlose KI-Modelle und Werkzeuge zur Verfügung stellt.

Insgesamt ist die KI-Technologie immer noch in der Entwicklungsphase, und die hohen Kosten sind eine Herausforderung, die Unternehmen und Entwickler überwinden müssen, um die Technologie erfolgreich einzusetzen. Es wird erwartet, dass die Kosten im Laufe der Zeit sinken werden, da die Branche weiterhin Innovationen vorantreibt und effizientere Lösungen entwickelt.

AI Trainingsmodelle -Die Kosten des Trainings!

AI Trainingsmodelle -Die Kosten des Trainings
AI Trainingsmodelle -Die Kosten des Trainings

Analysten und Technologen schätzen, dass das Training großer Sprachmodelle wie GPT-3 von OpenAI mehr als 4 Millionen US-Dollar kosten könnte. Fortgeschrittenere Modelle könnten sogar über "hohe einstellige Millionen" für das Training kosten, wie Rowan Curran, ein Analyst von Forrester, der sich auf KI und maschinelles Lernen spezialisiert hat, sagte.

Meta hat kürzlich sein größtes LLaMA-Modell veröffentlicht, das mit 2.048 Nvidia A100-GPUs trainiert wurde, um 1,4 Billionen Token (ca. 750 Wörter sind etwa 1.000 Token) zu trainieren. Das Training dauerte etwa 21 Tage und erforderte etwa 1 Million GPU-Stunden. Mit dedizierten Preisen von AWS würde das Training über 2,4 Millionen US-Dollar kosten. Obwohl das Modell mit 65 Milliarden Parametern kleiner als die aktuellen GPT-Modelle bei OpenAI ist, wie ChatGPT-3 mit 175 Milliarden Parametern, ist es dennoch ein kostspieliges Unterfangen.

Laut Clement Delangue, dem CEO des KI-Startups Hugging Face, dauerte das Training des großen Bloom-Sprachmodells des Unternehmens mehr als zweieinhalb Monate und erforderte den Zugang zu einem Supercomputer, der "etwa das Äquivalent von 500 GPUs" war. Organisationen, die große Sprachmodelle erstellen, müssen vorsichtig sein, wenn sie ihre Modelle neu trainieren, um ihre Fähigkeiten zu verbessern, da es sehr teuer ist, betonte er.

Delangue merkte an, dass es wichtig ist zu erkennen, dass diese Modelle nicht ständig trainiert werden, wie jeden Tag. Einige Modelle wie ChatGPT haben möglicherweise keine Kenntnis von den neuesten Ereignissen. Delangue betonte auch, dass das Wissen von ChatGPT im Jahr 2021 endet.

Derzeit führt Hugging Face das Training für die zweite Version von Bloom durch, das nicht mehr als 10 Millionen Dollar kosten wird. Delangue sagte jedoch, dass sie nicht jede Woche solche Trainings durchführen möchten.

Inferenz: Ein teurer Prozess bei der Verwendung von KI-Textgeneratoren.

Inferenz: Ein teurer Prozess bei der Verwendung von KI-Textgeneratoren
Inferenz: Ein teurer Prozess bei der Verwendung von KI-Textgeneratoren. 

Ingenieure nutzen für die Vorhersage oder Generierung von Texten trainierte maschinelle Lernmodelle das Verfahren der "Inferenz". Dieser Prozess kann wesentlich teurer sein als das Training des Modells, da er möglicherweise millionenfach für ein beliebtes Produkt ausgeführt werden muss. Bei einem so beliebten Produkt wie ChatGPT mit geschätzten 100 Millionen monatlich aktiven Benutzern im Januar, geht der Forscher Curran davon aus, dass OpenAI möglicherweise 40 Millionen Dollar für die Verarbeitung von Millionen von Eingabeaufforderungen im Laufe eines Monats ausgegeben hat.

Die Kosten steigen dramatisch an, wenn diese Tools täglich milliardenfach genutzt werden. Finanzanalysten schätzen, dass der Bing AI-Chatbot von Microsoft, der auf einem OpenAI-ChatGPT-Modell basiert, mindestens 4 Milliarden US-Dollar an Infrastruktur benötigt, um alle Bing-Benutzer mit Antworten zu versorgen.

Latitude, ein Startup, das auf ein OpenAI-Sprachmodell zugreift, musste zwar nicht für das Training des Modells bezahlen, aber die Inferenzkosten berücksichtigen, die laut einem Sprecher des Unternehmens etwa "einem halben Cent pro Anruf" entsprachen und bei "ein paar Millionen Anfragen pro Tag" lagen. Curran schätzt, dass seine Berechnungen eher konservativ sind.

Um den aktuellen KI-Boom anzukurbeln, investieren Risikokapitalgeber und Technologiegiganten Milliarden von Dollar in Startups, die sich auf generative KI-Technologien spezialisiert haben. Medienberichten zufolge hat Microsoft beispielsweise im Januar bis zu 10 Milliarden US-Dollar in OpenAI investiert, das die Aufsicht über GPT hat. Der Risikokapitalarm von Salesforce Ventures hat kürzlich einen 250-Millionen-Dollar-Fonds aufgelegt, um generative KI-Startups zu unterstützen.

Viele Unternehmer sehen Risiken darin, sich auf möglicherweise subventionierte KI-Modelle zu verlassen, die sie nicht kontrollieren und nur pro Nutzung bezahlen. Suman Kanuganti, der Gründer von personal.ai, einem Chatbot im Beta-Modus, rät Unternehmern, sich nicht nur auf große Sprachmodelle wie OpenAI oder ChatGPT zu verlassen. Unternehmen wie das Enterprise-Tech-Unternehmen Conversica untersuchen, wie sie die Technologie über den Azure-Cloud-Service von Microsoft zum reduzierten Preis nutzen können. CEO Jim Kaskade von Conversica lehnte es ab, sich zu den Kosten des Startups zu äußern, betonte jedoch, dass die subventionierten Kosten willkommen seien, da man untersuche, wie Sprachmodelle effektiv eingesetzt werden können.

Die Zukunft der KI-Entwicklung: Herausforderungen und Chancen

Die Zukunft der KI-Entwicklung: Herausforderungen und Chancen
Die Zukunft der KI-Entwicklung: Herausforderungen und Chancen.  

Es ist unklar, ob die Kosten für die Entwicklung von KI in der Branche hoch bleiben werden. Unternehmen, die Basis-Modelle herstellen, Halbleiterhersteller und Startups sehen alle Geschäftsmöglichkeiten in der Senkung der Betriebskosten von KI-Software.

Nvidia, das etwa 95 % des Marktes für KI-Chips hält, entwickelt weiterhin leistungsstärkere Versionen, die speziell für maschinelles Lernen entwickelt wurden. Allerdings haben sich die Verbesserungen der Chipleistung in der Branche in den letzten Jahren verlangsamt.

Dennoch glaubt der CEO von Nvidia, Jensen Huang, dass die KI in 10 Jahren "eine Million Mal" effizienter sein wird. Nicht nur die Chips, sondern auch die Software und andere Computerkomponenten werden verbessert. "Moore's Law hätte in seinen besten Tagen das 100-fache in einem Jahrzehnt geliefert", sagte Huang letzten Monat bei einer Gewinnkonferenz. "Durch die Entwicklung neuer Prozessoren, Systeme, Verbindungen, Frameworks und Algorithmen sowie die Zusammenarbeit mit Datenwissenschaftlern und KI-Forschern bei der Entwicklung neuer Modelle haben wir die Verarbeitung großer Sprachmodelle millionenfach beschleunigt."

Einige Startups haben sich auf die hohen Kosten von KI als Geschäftsmöglichkeit konzentriert. D-Matrix entwickelte ein System, um Geld für Inferenzen zu sparen, indem es mehr Verarbeitung im Speicher des Computers als auf einer GPU durchführt. Die Gründer glauben, dass GPUs teuer sind und nicht für die Schlussfolgerung gebaut wurden. Delangue, der CEO von HuggingFace, glaubt, dass mehr Unternehmen besser bedient wären, wenn sie sich auf kleinere, spezifische Modelle konzentrieren würden, die billiger zu trainieren und zu betreiben sind, als auf die großen Sprachmodelle.

OpenAI hat letzten Monat die Kosten für den Zugriff auf seine GPT-Modelle gesenkt. Es kostet jetzt ein Fünftel eines Cents für etwa 750 Wörter Ausgabe. Die niedrigeren Preise von OpenAI haben die Aufmerksamkeit des AI-Dungeon-Herstellers Latitude erregt. Latitude-CEO Nick Walton sagte, dass die Entscheidung von OpenAI, die Kosten zu senken, es ihnen ermöglichen werde, noch mehr Benutzern den Zugriff auf ihre fantastischen, von AI generierten Geschichten zu ermöglichen.

Insgesamt wird die Zukunft der KI-Entwicklung von vielen Faktoren abhängen, einschließlich der Kosten, der Verfügbarkeit von Fachkräften, der technologischen Fortschritte und der regulatorischen Rahmenbedingungen. Es bleibt jedoch klar, dass die KI-Entwicklung in den kommenden Jahren eine entscheidende Rolle in vielen Branchen spielen wird und dass Unternehmen, die frühzeitig in diese Technologie investieren, einen entscheidenden Wettbewerbsvorteil haben könnten.



 

 

Kommentar veröffentlichen

0Kommentare
Kommentar veröffentlichen (0)

#buttons=(Accept !) #days=(20)

Our website uses cookies to enhance your experience. Learn More
Accept !