Offline Chatbot ohne Einschränkungen - Kostenlose & unzensierte KI lokal auf deinem PC installieren

36,099
0
Published 2024-04-16
Link zum Artikel: digitaleprofis.de/kuenstliche-intelligenz/ki-chatb…
Link zu LMStudio: lmstudio.ai/

Egal ob es sich um Stereotypen, politische Meinungen oder allgemein kontroverse Themen handelt, viele größere Sprachmodelle verweigern für bestimmte Fragen eine klare Antwort oder passen sie zumindest so an, dass sie zwar diplomatisch ist, inhaltlich aber nicht wirklich zufriedenstellend.

Diese möglichen Einschränkungen sind aber nicht der einzige Grund, um ein eigenes Sprachmodell auf dem Computer zu installieren.

Gleichzeitig ermöglicht uns dieses Vorgehen nämlich maximale Privatsphäre und den Schutz unserer Daten, da alles komplett ohne Internetzugriff und das Senden unserer Eingaben an Server von irgendwelchen Unternehmen funktioniert.

Wir zeigen in diesem Video wie man eine künstliche Intelligenz ohne Einschränkungen oder Zensur ganz einfach lokal, ohne Internet als Chatbot auf dem eigenen Computer verwenden kann.

Werde Kanalmitglied und unterstütze damit unsere Arbeit:
youtube.com/channel/UCv90NdTyTp7ZPPRvvSZaS5w/join

Videoinhalt:
00:00 Unzensierte KI-Modelle lokal auf dem eigenen Computer verwenden
01:04 LMStudio installieren
01:36 KI-Modelle in LMStudio suchen und herunterladen
04:35 Installierte Modelle lokal im Chat verwenden
07:10 Unterschiede bei den verfügbaren KI-Modellen
08:04 Die Vorteile der lokalen Verwendung von KI-Chatbots
08:43 Die Nachteile der lokalen Verwendung von KI-Chatbots
09:15 Wie unzensiert sind die KI-Modelle wirklich?
10:22 Hinweis für Windows und Linux User - AVX2-Unterstützung erforderlich

Videovorschläge, Feedback und Kritik kannst Du uns jederzeit in den Kommentaren mitteilen!

All Comments (21)
  • @armauploads1034
    Es gibt inzwischen sooo viele KI-Modelle und von jedem immer mehr Sub-Versionen und neue Versionen, ich finde es sehr verwirrend, da überhaupt einen groben Überblick (Unterschiede, Stärken usw.) zu bekommen. Könntet Ihr hierzu vielleicht einmal ein Video machen? Ein Vergleich der wichtigsten/besten KI-Modelle, Stärken, Schwächen, bevorzugte Einsatzgebiete usw!? :face-blue-smiling::face-red-heart-shape:
  • @DigitalImp777
    Danke für die hilfreichen Infos zur Datensicherheit bei lokalen Sprachmodellen. Super Anleitung!
  • Ich bin so froh über eure Beiträge!!!😊Von euch ständig auf den neuesten Stand gebracht zu werden, ist sooo hilfreich! P.S. wenn es das offline für android gibt, bitte informieren.
  • @jensb.2608
    Wieder ein sehr gutes Video mit top Informationen. Vielen Dank!
  • @user-bh8vi3ty5h
    bietet LM Studio auch die Möglichkeit Modelle nachzutrainieren oder Datein wie PDFs zu analysieren?
  • Das klingt ja sehr spannend, ich werde es ausprobieren. Danke für das Video. Gibt es denn auch eine Möglichkeit, in LMStudio so eine lokale KI mit eigenen Textdaten zu trainieren? Wenn ja, würde mich ein Tutorial dazu brennend interessieren.
  • @Raffa-gf2hm
    Wir stecken noch in den Kinderschuhen aber es geht mit sieben Meilenstiefeln vorwärts! Bin gespannt und habe keine Angst da die Zukunkt sich ihren Weg bahnt und nicht aufzuhalten ist 🎉
  • und wie kann ich es nutzen und es nutzt die GPU und Ram so das man auch Größere benutzen kann
  • @Cynshet
    Ich habe bisher nur mal eine 4GB große Version von Llama lokal laufen lassen, deutsche Gramatik war da wesentlich schlechter als bei der freien ChatGPT Variante, die ich aus dem Netz kenne. Ich dachte, das läuft auf der Grafikkarte und da sind 12GB bei mir nicht allzu viel aber mein Rechner hat 64GB Ram, da könnte ich vielleicht doch mal die größeren Modelle testen.
  • @mikemaier6330
    Super! Werde ich testen! Danke dir! Frage: Hast du eine Cirka-Angabe zum Verhältnis Model(Größe)/verbauter Arbeitsspeicher? Ich habe 24 Gb Ram. Würdest du damit das 7 GB-Model flüssig nutzen?
  • @rlcmark
    Danke für das Video. Frage: lernt die KI durch meine Eingaben? Kann ich die KI mit Daten selber “füttern”?
  • @brillehut5648
    Hallo Hallo ...Ich habe einen Mac aber leider keinen M1 Chip da bin ich raus oder?
  • @Pyramidalist
    Danke. 1 Bemerkung: RAM kann per USB erweitert werden. 1 Frage: Kann so ein Modell meinen eigenen PC als Datenbasis einlesen, um endlich diese völlig unzureichende Windows-File-Explorer-Suche zu verbessern? Oder gibt es ne Art google-für-clientonly?
  • @jhna314
    kann ich auf mein Laptop von 2015 installieren? 8 Gb Ram. kann man mit brauchbaren Ergebnissen rechnen?
  • Danke liebe digitale Profis. Gibt es auch ein Modell, bei dem ich meine eigenen pdfs auswerten lassen kann? Mir geht es um wissenschaftliche Literatur. D.h. da Modell muss schon trainiert sein, um zu verstehen, dass sie aus pdfs Abstracts zieht etc.
  • @angiangii2267
    Kann man damit auch auf lokale Dateien z.B. zugreifen? Wenn ich z.B. möchte, dass die KI auf ein PDF oder einen Ordner zugreift... Geht das damit?