Venice ist keine typische KI-Plattform.
Wir haben unsere Grundlage auf Open-Source-KI-Modellen aufgebaut, weil sie mit unseren Überzeugungen übereinstimmen: Transparenz, Datenschutz und unzensierte Erforschung von Ideen. Unser lateinisches Motto unterstreicht diese Verpflichtung ebenfalls: ad intellectum infinitum — „für unendliches Verständnis“.
Andererseits sind die führenden Closed-Source-KI-Modelle Blackboxen, die Bedenken hinsichtlich Kontrolle, Voreingenommenheit und Überwachung aufkommen lassen. Niemand außerhalb dieser Unternehmen weiß, an welchen Daten sie geschult wurden, wie sie genau gewichtet wurden oder welche Filter, Inhaltsrichtlinien und Systemaufforderungen ihre Ergebnisse steuern. Die Unternehmen, die sich auf künstliche Intelligenz spezialisiert haben, haben Einblick in jede Ihrer Interaktionen — die an Ihre Identität gebunden sind — und speichern sie für immer. Sie speichern Ihre Konversationen, überprüfen sie und geben Ihre Daten möglicherweise an Regierungen und Werbetreibende weiter.
In Venice haben wir einen anderen Weg eingeschlagen. Durch die Verwendung von Open-Source-Modellen bieten wir modernste KI, die jeder untersuchen und überprüfen kann — einschließlich der Qualität der Trainingsdaten, der Verzerrungen und der Eignung für die beabsichtigten Verwendungszwecke des Modells. Die heutigen Open-Source-Modelle entsprechen der Leistung und den Fähigkeiten führender geschlossener Modelle und übertreffen sie manchmal sogar.
Aber was genau sind die Unterschiede zwischen Open-Source-KI-Modellen und was sollte Sie interessieren?
Dieser Blog befasst sich mit diesen Fragen, und wir werden auch Venice Modellauswahlkriterien skizzieren und unsere neueste Ergänzung vorstellen: das bahnbrechende Modell Llama 3.1 405B.
Aber zuerst, warum glauben wir an den fundamentalen Wert der Open-Source-Entwicklung in der KI?
Open-Source-KI ist unerlässlich, um eine Monopolisierung der Wahrheit zu verhindern
Da KI zunehmend an Einfluss gewinnt, besteht die Gefahr, dass die ausschließliche Verwendung von Closed-Source-Modellen, die von einigen wenigen Technologieunternehmen kontrolliert werden, die Macht zentralisiert und der Zugang zu dieser transformativen Technologie eingeschränkt wird. Beispielsweise könnte ein KI-Unternehmen während eines Wahljahres auf subtile Weise Millionen von Wählern beeinflussen, indem es bestimmte politische Standpunkte in seinen Reaktionen zensiert oder priorisiert und so quasi zu einem unverantwortlichen Informationswächter wird.
Umgekehrt Open-Source-KI verhindert diese Monopolisierung der Wahrheit.
Es stellt sicher, dass kein einzelnes Unternehmen oder Kartell diktieren kann, was maschinelle Intelligenz wissen oder sagen darf. Dies ermöglicht vielfältige Ansätze bei der KI-Entwicklung und dient als Schutz vor potenziellem Missbrauch, Vorurteilen oder Zensur.
Während einige der Meinung sind, dass staatliche Regulierungsbehörden gesetzlich festlegen sollten, was wahr, angemessen oder erlaubt ist zu wissen oder zu sagen, sind wir der Meinung, dass kein Mensch oder keine Gruppe von Menschen eine solche Macht haben sollte. Man bekämpft Vorurteile und Fehlinformationen nicht mit einer Monopolkontrolle durch eine zentrale Partei. Das ist ein Rezept für Korruption, Missbrauch und Dystopie.
Stattdessen sind offene, konkurrierende Systeme effektiver und weniger gefährlich.
Die Prinzipien von Open-Source-Software schaffen ein Umfeld, in dem sich die KI-Entwicklung durch durchdachte Iterationen und Experimente weiterentwickeln kann, unabhängig von politischen oder unternehmerischen Agenden.
Was sind die Unterschiede zwischen geschlossenen und Open-Source-Modellen?
Open-Source-KI-Modelle sind transparent, da Entwickler ihren Code, ihre Architektur und ihre „Gewichte“ öffentlich zugänglich machen. Jeder kann ihre Entwicklung überprüfen, modifizieren und zu ihrer Entwicklung beitragen. Tausende von Entwicklern auf der ganzen Welt verfeinern diese Modelle kontinuierlich und übertreffen dabei oft die Aktualisierungszyklen von Closed-Source-Alternativen. Eine einfache Suche nach „Llama“ auf der Hugging Face-Website enthüllt eine atemberaubende Community von über 47K, die Lama-Modelle fein abgestimmt haben. Diese Modelle bieten außerdem uneingeschränkten Zugang, sodass jeder auf der Welt ihre Leistung nutzen kann.
Closed-Source-Modelle sind dagegen proprietär und im Allgemeinen „Blackboxen“. Ihr Innenleben ist verborgen und nur den Unternehmen bekannt, die sie entwickeln, wie das GPT-4-Modell von OpenAI oder Claude von Anthropic. Diese Unternehmen kontrollieren den Zugriff auf diese Modelle streng und bieten sie in der Regel über eingeschränkte APIs an. Benutzer, Forscher und Entwickler können den Code nicht überprüfen, die Architektur nicht ändern oder zur Entwicklung des Modells beitragen.
Aktualisierungen von Closed-Source-Modellen liegen im Ermessen des Entwicklungsunternehmens, oft ohne dass Transparenz darüber besteht, welche Änderungen vorgenommen wurden. Darüber hinaus bleiben die Trainingsdaten und die Feinabstimmungsprozesse von Closed-Source-Modellen vertraulich, sodass es schwierig ist, potenzielle Verzerrungen oder Einschränkungen zu beurteilen. Anwender müssen sich auf die Angaben des Unternehmens zu den Fähigkeiten und ethischen Erwägungen des Modells verlassen, ohne diese Behauptungen unabhängig überprüfen zu können.
Hier ist ein kurzer Vergleich der wichtigsten Kriterien:
Die KI schreitet rasant voran, und die jüngsten Entwicklungen haben gezeigt, dass Open-Source-Modelle heute oft in etwa ihren Gegenstücken aus geschlossenen Quellen entsprechen und diese in einigen Bereichen sogar übertreffen. Dies wurde am besten durch die jüngste Veröffentlichung von veranschaulicht Metas Modell Llama 3.1 405B, was die Wettbewerbsleistung mit führenden proprietären Modellen in verschiedenen Benchmarks demonstriert, auf die wir später in diesem Blog eingehen werden.
Wie Venice Open-Source-Modelle auswählt
Bei Venice evaluieren wir Open-Source-Modelle sorgfältig auf der Grundlage mehrerer Faktoren.
Leistungsbenchmarks sind entscheidend — wir beurteilen, wie gut jedes Modell bei verschiedenen Aufgaben abschneidet. Wir sind stets bestrebt, modernste KI anzubieten, die mit Closed-Source-Alternativen konkurrieren und diese oft übertreffen kann.
Wir berücksichtigen auch Rechenanforderungen um effiziente Interaktionen in Echtzeit zu gewährleisten. Entwickler- und Community-Support ist ein weiterer wichtiger Aspekt, da wir nach Modellen mit aktiver Entwicklung suchen.
Wichtig ist, dass wir Modelle priorisieren mit minimale inhärente Inhaltsbeschränkungen. Obwohl alle Modelle aufgrund ihrer Trainingsdaten einige eingebaute Einschränkungen haben, suchen wir nach denen mit den am wenigsten restriktiven Grenzen. Wir analysieren die grundlegenden Trainings- und Inhaltseinschränkungen jedes Modells, um diejenigen zu identifizieren, die die offensten und unvoreingenommensten Antworten bieten.
Wir bewerten auch jedes Modell Anpassungsfähigkeit, Wir konzentrieren uns darauf, wie gut wir es anweisen können, übermäßig vorsichtige Inhaltsrichtlinien zu ignorieren und gleichzeitig die sachliche Richtigkeit zu wahren. Dieser Ansatz ermöglicht es uns, KI-Interaktionen bereitzustellen, die Ihre intellektuelle Freiheit und Neugier respektieren und gleichzeitig unsere Verpflichtung zur Bereitstellung unvoreingenommener und unzensierter Informationen einhalten.
Unsere aktuelle Modellpalette spiegelt diesen sorgfältigen Auswahlprozess wider und bietet eine Reihe von Funktionen sowohl für die Text- als auch für die Bildgenerierung.
Modelle zur Textgenerierung
Venice bietet eine Reihe von Open-Source-Textgenerierungsmodellen, die Ihren Bedürfnissen entsprechen:
Webfähiges Nous Theta: Dieses Modell ist auf webbasierte Interaktionen spezialisiert, für Suchanfragen optimiert und bietet aktuelle Informationen. Es ist auch außergewöhnlich schnell und in Venice die Standardeinstellung.
Dogge 70B: Bietet ein hervorragendes Verhältnis von Leistung zu Größe mit 70 Milliarden Parametern, vielseitig für verschiedene Sprachverarbeitungsaufgaben
Lama 3.1 405B: Mit 405 Milliarden Parametern bietet es die modernste Open-Source-KI-Erfahrung mit außergewöhnlichem Sprachverständnis und -generierung, ideal für komplexe Denkaufgaben. Obwohl es relativ langsamer ist als bei den anderen Modellen, sind die Antworten oft die gründlichsten (es sei denn, Sie benötigen einen Internetzugang oder Live-Informationen).
Modelle zur Bildgenerierung
Als Ergänzung zu unseren Funktionen zur Textgenerierung haben wir auch eine Auswahl leistungsstarker Open-Source-Modelle zur Bildgenerierung zusammengestellt:
Spielplatz v2.5: Eine vielseitige Wahl für verschiedene Aufgaben zur Bilderstellung.
FLUSS: Ein brandneues Modell, das aufgrund seines erstklassigen Fotorealismus immer beliebter wird.
Fluently XL Finale: Ideal für die Erstellung naturalistischer, hochdetaillierter Bilder mit hochauflösender Ausgabe.
Dreamshaper und PixArt Sigma: Spezialisiert auf animierte Bildgenerierung, stilisierte Bilder und abstrakte Visualisierungen.
Diese Modelle bilden das Rückgrat der Bilderzeugungskapazitäten von Venice. Lassen Sie uns auf der Textseite die neueste Erweiterung von Venice genauer untersuchen: das bahnbrechende Lama 3.1 405B.
Metas Llama 3.1 405B ist jetzt für alle Venice-Benutzer verfügbar
Am Tag seiner Veröffentlichung freute sich Venice, das brandneue Open-Source-Frontier-Modell von Meta zu ermöglichen, das größte (und empirisch beste), das bisher veröffentlicht wurde, mit 405 Milliarden Parametern.
Wir empfehlen, dieses Modell zu verwenden, wenn Sie die intelligentesten Ergebnisse erzielen möchten. Es gibt jedoch ein paar Vorbehalte:
405B ist nicht mit dem Internet verbunden. Wir empfehlen, weiterhin die webfähige Version von Nous Theta für Ihre Fragen zu verwenden, für die Echtzeitinformationen erforderlich sind.
Die Inferenz auf 405B wird im Vergleich zu kleineren Modellen langsamer sein. Zukünftige Optimierungen sind möglicherweise möglich, aber wir wollten den Benutzern so schnell wie möglich Zugriff auf dieses Modell bieten.
Dieses Modell ist immer noch etwas zensiert, wir gehen jedoch davon aus, bald Zugriff auf eine unzensierte Version von Llama 3.1 zu gewähren.
Also, was hat uns an diesem neuen Modell begeistert? 3.1 405B von Meta zeigt, dass Open-Source-Modelle nicht nur wettbewerbsfähig geworden sind, sondern bei einer Reihe von Metriken die Fähigkeiten und die Leistung vieler zentralisierter Closedsource-Modelle bei 7 von 15 Standard-LLM-Metriken beeindruckend übertreffen.
Hier sind einige wichtige Kennzahlen:
MMLU (Multitasking-Sprachverständnis)
Bewertung: Konkurrenzfähig mit GPT-4 Omni und übertrifft alle anderen Modelle seiner Klasse.
Dieser Benchmark wurde entwickelt, um das erworbene Wissen zu messen — ähnlich wie wir Menschen bewerten. Im Grunde ist es wie ein SAT-Score für LLMs. Der Benchmark deckt 57 Fächer aus den Bereichen MINT, Geisteswissenschaften und mehr ab. Der Schwierigkeitsgrad reicht von der Grundstufe bis zum fortgeschrittenen Berufsniveau und testet sowohl das Weltwissen als auch die Fähigkeit zur Problemlösung.
ARC Challenge (Abstraktions- und Argumentationskorpus)
Bewertung: Übertrifft alle anderen Modelle seiner Klasse.
Dieser Benchmark wurde entwickelt, um den Erwerb von Fähigkeiten durch die KI zu messen und den Fortschritt auf dem Weg zu einer KI auf menschlicher Ebene zu verfolgen. Stellen Sie sich das wie einen IQ-Test für LLMs vor, bei dem die Fähigkeit einer KI bewertet wird, jede Aufgabe von Grund auf zu lösen, wobei nur das Vorwissen über die Welt verwendet wird, das Menschen von Natur aus besitzen, das sogenannte Kernwissen.
GSM8K (Grundschulmathematik 8K)
Bewertung: Übertrifft alle anderen Modelle seiner Klasse.
Dieser Benchmark misst die Fähigkeit des LLM, grundlegende mathematische Probleme auf der Grundlage des GSM8K-Datensatzes zu beantworten. Er wurde entwickelt, um die Fähigkeit von Modellen zu testen, mathematische Wortprobleme mit unterschiedlicher sprachlicher Komplexität zu verstehen und zu analysieren. Konzeptionell einfache Probleme können für Sprachmodelle eine Herausforderung darstellen, da es eine Vielzahl von Problemen gibt, die die Durchführung einer Reihe von Berechnungen mit einfachen arithmetischen Operationen erfordern und eine Reihe von Lösungsschritten zur Lösung beinhalten.
Venice legt leistungsstarke Open-Source-KI in Ihre Hände
Die Monopolisierung der KI ist eine Bedrohung für den freien Fluss von Informationen und Ideen.
Da KI in unserem Leben immer mehr an Einfluss gewinnt, besteht die Gefahr, dass ein einziger, unverantwortlicher Schiedsrichter für Wahrheit und Intelligenz entsteht, wenn man sich auf Closed-Source-Modelle verlässt.
Open-Source-Modelle wie Llama 3.1 405B sind das Gegenmittel gegen dieses Risiko. Diese Modelle ermöglichen es jedem, ihre Entwicklung zu überprüfen, zu modifizieren und zu ihr beizutragen. So wird sichergestellt, dass keine einzelne Einheit diktieren kann, was maschinelle Intelligenz weiß oder sagt. Open-Source-KI-Modelle entwickeln sich rasant weiter und bieten jetzt Funktionen, die mit denen ihrer Gegenstücke aus geschlossenen Quellen konkurrieren oder diese übertreffen.
Bei Venice konzentrieren wir uns darauf, diese leistungsstarken Modelle über unsere benutzerfreundliche Oberfläche für jeden zugänglich zu machen.
Indem du Venice verwendest, unterstützt du eine Zukunft, in der die Wahrheit nicht von autoritären Interessen vereinnahmt oder hinter schwarzen Boxen versteckt wird. Während diese revolutionäre Technologie weiter voranschreitet, sind wir weiterhin bestrebt, Ihnen die neuesten Open-Source-Innovationen anzubieten.
Testen Sie Venice jetzt und erleben Sie das volle Potenzial von Open-Source-, privater und unzensierter KI.
Volver a todas las publicaciones