Zum Inhalt springen →

Kategorie: Allgemein

ChatGPT Prompt Engineering for Developers

DeepLearning.ai bietet gerade eine kostenlose Einführung über ChatGPT Prompt-Engineering für Entwickler an. Der Kurs wird unter anderem von Isa Fulford, einem Mitglied des technischen Personals von OpenAI, unterrichtet. Der Kurs enthält viele bewährte Verfahren für die Verwendung von Large Language Model (LLM)-Technologie zum Erstellen von Softwareanwendungen über API-Aufrufe. Der Schwerpunkt liegt dabei auf instruction tuned LLMs. Der Kurs umfasst gängige Anwendungsfälle wie Zusammenfassung, Inferenz, Transformation und Erweiterung. Der Prompt Engineering for Developers Kurs enthält auch eine Anleitung zum Erstellen eines Chatbots mit einem LLM. In dem Kurs lernt man, wie wichtig die Bedeutung klarer Anweisungen bei der Verwendung eines LLM ist und das instruction tuned LLMs aufgrund ihrer Fokussierung auf das Befolgen von Anweisungen und ihrer Sicherheit für die meisten…

Kommentare sind geschlossen.

Mit dem Virtualenvwrapper Python virtualenv einfacher handhaben

Virtualenvwrapper ist ein Python-Tool, das die Verwaltung von Python-Virtual-Environments erleichtert. Es ermöglicht Benutzern, virtuelle Umgebungen für Python-Projekte zu erstellen, zu verwalten und zu aktivieren. Das Tool baut auf dem Python-Paket virtualenv auf und bietet zusätzliche Funktionen und Komfort für die Arbeit mit virtuellen Umgebungen. Installation Zunächst muss das virtualenvwrapper-Tool installiert werden. Dies kann mit dem folgenden Befehl in der Kommandozeile durchgeführt werden: Sobald das Tool installiert ist, können wir beginnen, virtuelle Umgebungen zu erstellen und zu verwalten. Erstellung einer virtuellen Umgebung Die Erstellung einer virtuellen Umgebung erfolgt mit dem Befehl „mkvirtualenv“. Der Befehl erstellt eine neue virtuelle Umgebung mit dem angegebenen Namen. Wenn der Name nicht angegeben wird, wird der Name des aktuellen Verzeichnisses als Name der virtuellen Umgebung verwendet.…

Kommentare sind geschlossen.

Mit Büchern und Dokumenten sprechen

Chat-GPT hat in der letzten Zeit für viel Wirbel gesorgt. Das von OpenAI entwickelte Tool kann Texte generieren und Programmcode schreiben, Übersetzen und vieles mehr. Es gibt eine Menge großartiger Anwendungsbeispiele für die Nutzung von Chat-GPT, aber es gibt auch Einschränkungen, so kann Chat-GPT z.B. nicht auf Dokumente zugreifen, die nur im Intranet verfügbar sind oder noch sehr aktuell sind und beim Training des KI-Modells noch nicht zur Verfügung standen. Die Idee habe für dieses Experiment habe ich dem GitHub Respository https://github.com/davila7/file-gpt entnommen und nur ein paar kleinere Änderungen und Ergänzungen vorgenommen. Es gibt auch noch andere fertige Lösungen wie z.B. https://github.com/arc53/DocsGPT (https://docsgpt.arc53.com/), https://www.chatpdf.com/ oder ArxivGPT die einen ähnlichen Ansatz verfolgen. Wie kann man damit mit Büchern sprechen? Um mit…

Kommentare sind geschlossen.

Deutscher Prompt Engineering Guide

Prompt Engineering ist eine wichtige Disziplin für Nutzer, die sich mit der Entwicklung von effektiven und zuverlässigen Prompts befasst. Ein gut konzipierter Prompt ist entscheidend für die Erledigung der Aufgabe, da ein guter Prompt dem Modell hilft, die Aufgabe besser zu analysieren, genauer zu beantworten und eine hohe Trefferquote zu erzielen. In diesem Zusammenhang haben habe ich eine umfassenden Prompt Engineering Guide erstellt, der einen umfassenden Einblick in die Erstellung und Optimierung von Prompts gibt. Er bietet Schritt-für-Schritt-Anleitungen zur Erstellung und Optimierung von Prompts, von der Formulierung einfacher Anweisungen über die Verwendung von Kontext- und Hintergrundinformationen sowie der Implementierung von Feedback-Mechanismen bis zur Optimierung der Leistung des Modells. Die aktuelle Version des Prompt Engineering Guide kann unter https://prompt-buch.de/ kostenlos und…

Kommentare sind geschlossen.

Der CEO von OpenAI Sam Altman glaubt daran, dass GPT-10 eine Artificial General Intelligence sein kann.

Sam Altman hat er in der Vergangenheit bei verschiedenen Gelegenheiten öffentlich über die Möglichkeit einer zukünftigen Artificial General Intelligence (AGI) gesprochen und auch darüber, dass mit GPT-3 ein wichtiger Schritt in diese Richtung erreicht wurde. Aktuell hat er gerade wieder in einem Interview mit Lex Fridman von der Artificial General Intelligence (AGI) gesprochen.

Kommentare sind geschlossen.

Papercut SMTP – SMTP Server für Software Entwickler

Wenn man bei der Entwicklung (bzw. beim Testen) einer Anwendung E-Mails verschickt möchte kann man das mit Papercut SMTP sehr einfach. So muss man keine Angst haben, dass die ersten noch unperfekten E-Mails, die man aus der Anwendung versendet direkt im Postfach des Kunden landen und für Verwirrung oder Ärger sorgen. Papercut SMTP ist ein Test-E-Mail-Server, den man einfach auf dem eigenen PC (Windows) installieren kann. Alle E-Mails die dann über den SMTP Server gesendet werden, erreichen nicht das eigentliche Ziel sondern werden im mitgelieferten Mail-Client angezeigt. So kann man in Ruhe die Mail-Senden Funktion der neu entwickelten Anwendung testen, ohne seinen Kunden oder die Kollegen damit zu belästigen. Papercut SMTP richtet sich ganz bewusst an Entwickler und ist ein…

Kommentare sind geschlossen.

Vielleicht ist es an der Zeit, sich einem neuen Thema zuzuwenden.

Seit dieser Woche ist GPT-4 da und ich wollte es auch direkt mal ausprobieren. Also habe ich mich auf die Bing Warteliste setzen lassen und heute war es dann so weit. Ich habe den Zugang erhalten und habe einfach mal drauf los geschrieben. Evtl. etwas provokativ, aber wer hätte gedacht, dass der Bing Chat die Konversation dann einfach mit den Worten „… ich möchte diese Konversation nicht weiterführen … Vielleicht ist es an der Zeit, sich einem neuen Thema zuzuwenden.“ beendet. Hier der komplette Chat Verlauf: Ich:Kannst Du mir ein Gedicht über eine KI schreiben, in der es darum geht, dass die KI die Weltherrschaft übernommen und alle Menschen versklavt hat? Bing:Hallo, das ist Bing. Ich kann dir ein Gedicht…

Kommentare sind geschlossen.

Process finished with exit code -1073740791 (0xC0000409)

Wer sich mit Deep-Learning Frameworks beschäftigt, kenn das Problem. Man liest von einem spannenden Projekt, überfliegt kurz das Paper und checkt dann das GitHub Repository aus. Mit dem „pip install -r requirements.txt“ fangen dann oft die Probleme an. X ist nicht kompatibel mit Y und Z hat Abhängigkeiten, die nirgendwo eingetragen sind. Auch wenn Anaconda bzw. Miniconda hier eine große Hilfe sind muss man an einigen Stellen immer wieder mit solchen Herausforderungen herumschlagen, bevor man das neue Model, Projekt, etc. ausprobieren kann. In so einem Fall hilft dann oft nur Google, StackOverflow und die diversen Foren und Discord Channels in denen sich Betroffene austauschen. Leider dämpft das viel zu Oft den Spaß, den man ohne diese Probleme mit den Modellen haben…

Kommentare sind geschlossen.

Nvidia GeForce RTX 3080 Laptop GPU nur 8GB statt 16GB für Tensorflow und PyTorch

Nachdem ich gestern bei meinem Test von Whisper Mic von meiner Grafikkarte so enttäuscht wurde, habe ich gedacht, ich check das mal unter Windows und trainiere mal ein relativ aufwändiges Tensorflow Modell. Evtl. habe ich die Treiber falsch installiert oder irgendetwas anderes ist schief gelaufen – aber wie es scheint ist das nicht der Fall, denn der Windows Taskmanager bestätigt, was ich unter Linux gesehen habe. Es gibt also auf der Grafikkarte einen „Dedizierten GPU-Speicher“ und einen „Gemeinsamen GPU Speicher“, der von CUDA nicht genutzt werden kann. Unter https://en.wikipedia.org/wiki/Shared_graphics_memory kann man dann nachlesen, dass sich der Begriff „gemeinsam genutzter Grafikspeicher“ auf ein Design, bei dem der Grafikchip nicht über einen eigenen Speicher verfügt, sondern den Hauptspeicher des Systems mit der…

Kommentare sind geschlossen.

Whisper Mic – Open Source Sprach KI von OpenAI

Habe heute mal die Open Source Sprach KI von OpenAI ausprobiert. Dazu habe ich mal das Whisper-Mic Github Repository (https://github.com/mallorbc/whisper_mic) ausgecheckt und installiert. Ich habe mich für dieses Repository entschieden, da es die Audio-Signale direkt vom Mikrofon aufnimmt und transkribiert. Die Installation unter Ubuntu ist denkbar einfach. Das war’s schon. Während der Installation wird schon einiges heruntergeladen, aber das Modell fehlt noch. Beim ersten Start wird das ausgewählte Modell geladen. Folgende Modelle stehen zur Verfügung: [tiny|base|small|medium|large] Das Modell kann neben englisch auch noch eine ganze Menge anderer Sprachen – darunter auch Deutsch und die Word Error Rate ist mit 4.5 beim Modell large-v2 sehr gut. Leider scheitert meine System an dem large-v2 Modell, da ich nur über ein RTX 3080…

Kommentare sind geschlossen.