PMLB (Penn Machine Learning Benchmarks) ist eine umfangreiche Sammlung von Benchmark-Datensätzen, die speziell für maschinelles Lernen und Data-Mining entwickelt wurde. Das Repository https://github.com/EpistasisLab/pmlb enthält den Code und die Daten für einen großen, kuratierten Satz von Benchmark-Datensätzen zur Bewertung und zum Vergleich von Algorithmen für Supervised Machine Lernen. Diese Datensätze decken ein breites Spektrum von Anwendungen ab und umfassen eine Vielzahl von Klassifizierungsprobleme und Regressionsprobleme. Die Sammlung stammt aus verschiedenen Quellen und wird vom Artificial Intelligence Innovation (A2I) research laboratory unter der MIT Lizenz zur Verfügung gestellt. Alle Datensätze sind in einer einheitlichen Struktur organisiert, was die Nutzung und den Vergleich von Algorithmen erleichtert. Der Datensatz ‚adult‘ kann z.B. mit folgenden Zeilen als Pandas Dataframe geladen werden. Hauptmerkmale von PMLB Beispiel Metadaten…
Kommentare sind geschlossen.jentsch.io Beiträge
Gestern Abend habe ich eine Realtek AMB82-Mini IoT AI Camera bekommen, die ich erst vor 2 oder 3 Tagen bei https://www.seeedstudio.com/AMB82-MINI-RTL8735B-IoT-AI-Camera-Dev-Board-p-5584.html bestellt habe. Unboxing Bilder Erster Test Nachdem ich erst etwas Schwierigkeiten hatte das Board mit dem Computer zu verbinden habe ich es dann doch noch geschafft. Ehrlicherweise muss ich zugeben, dass die Schwierigkeiten nicht durch das Bord verursacht wurden sondern durch die miesen USB-Kabel, die ich noch gefunden habe. Erst das dritte Kabel hat vernünftig funktioniert. Glücklicherweise hat mir beim Finden der Ursache der Great Scott Gadgets Cynthion gute Dienste geleistet. Man muss aber auch sagen, dass es heute einfach nicht mehr angemessen ist, ein Micro-USB Anschluss zu verwenden. Eigentlich sollte 2024 alles mit USB-C funktionieren. Beim verbinden mit…
Kommentare sind geschlossen.Das Cynthion USB Tool ist ein vielseitiges Instrument zur Entwicklung, Prüfung, Überwachung und Simulation von USB-Geräten. Es basiert auf einer FPGA-Architektur, die es ermöglicht, das Cynthion USB Tool vollständig an die jeweilige Anwendung anzupassen. Es arbeitet mit der Open-Source-Analyse-Software Packetry sowie den LUNA-Gateware- und Facedancer-Bibliotheken zusammen. Cynthion ist ein praktisches Werkzeug für alle, die USB-Geräte entwickeln oder Analysieren. Cynthion Installation Voraussetzung für die Installation von Cynthion ist Python v3.8 oder besser. Ist diese Voraussetzung erfüllt, kann man mit dem folgenden Befehl die nötigen Python Pakete installieren. pip install –user cynthion Nach der erfolgten Installation kann man mit dem folgenden Befehl prüfen, ob Cynthion installiert wurde. > pip show cynthionName: cynthionVersion: 0.1.6Summary: Python package and utilities for the Great Scott Gadgets…
Kommentare sind geschlossen.Wow, das habe ich auch noch nicht erlebt. Keine Tickets mehr für den Donnerstag, den Freitag und den Samstag. Bleibt also nur der Sonntag. Also schnell Karten besorgt … aber ich befürchte, es wird sehr voll. Schon 2023 besuchten 193.000 Besucher die SPIEL 2023, was der zweitbeste Wert nach 2019 ist und dieses Jahr werden es wohl über 200.000 Besucher erwartet. https://www1.wdr.de/nachrichten/ruhrgebiet/spiel-essen-2024-startet-100.html …….
Kommentare sind geschlossen.Das openai/whisper-large-v3-turbo Modell von OpenAI ist eine optimierte Version des Whisper large-v3 Modells. Es wurde entwickelt, um die Geschwindigkeit der Transkription erheblich zu verbessern, ohne dabei die Genauigkeit wesentlich zu beeinträchtigen. Im Gegensatz zu seinem Vorgänger verfügt das Turbo-Modell über nur vier Decoder-Schichten, was es deutlich effizienter macht. Dieses Modell ist besonders nützlich für Anwendungen, die schnelle und präzise Spracherkennung erfordern, und es unterstützt eine Vielzahl von Sprachen und Dialekten. Durch die Feinabstimmung auf umfangreiche mehrsprachige Transkriptionsdaten bietet das Whisper-large-v3-turbo Modell eine hervorragende Balance zwischen Leistung und Genauigkeit. So steht es jedenfalls auf der Huggingface Webseite. Grund genug, das Model mal zu testen und zu prüfen, ob das wirklich so ein Game-Changer ist? Laut der Webseite unterstütz whisper-large-v3-turbo 99 Sprachen.…
Kommentare sind geschlossen.Die Vorstellung von Large Language Models (LLMs) als eine neue Form von Datenbank ist mir beim Schauen des Videos „Neural and Non-Neural AI, Reasoning, Transformers, and LSTMs“ gekommen und sie lässt mich irgendwie nicht mehr los. Hier also meine Gedanken dazu. Ist der Latent Space in den LLMS nur ein versteckter Datenspeicher? Der Latent Space ist eine abstrakte Repräsentation, in dem das Modell die „Bedeutungen“ von Wörtern, Konzepten und Zusammenhängen darstellt. Kann der Latent Space als eine Art Datenspeicher betrachtet werden, der dem Speicherkonzept in traditionellen Datenbanken ähnlich ist? Wenn ein LLM trainiert wird, lernt es, ähnliche Konzepte in der Nähe voneinander im Latent Space zu platzieren. Zum Beispiel könnten die Wörter „Hund“ und „Katze“ nahe beieinander liegen, da sie…
Kommentare sind geschlossen.1. Installation von LinuxCIFS utils (https://wiki.samba.org/index.php/LinuxCIFS) 2. Mounten des Laufwerkes Mein Synology Nas ist unter der IP 192.168.178.165 zu erreichen. Die IP Adresse der Synology kann man in der Fritz Box oder in der Synology Web Oberfläche nachsehen. Nun ist der Ordner gitea auf der Synlology Nas unter Ubuntu im Ordner /mnt/synology/ zu erreichen. Damit nach einem Neustart das Laufwerk automatisch wieder gemountet wird, muss man in der /etc/fstab Datei einen Eintrag machen. Der Benutzername und das Passwort wird in der Datei /etc/.synologycredentials gespeichert. Dadurch wird das Verzeichnis nach jedem Reboot automatisch gemountet und ist immer verfügbar. In meinem konkreten Fall möchte ich dieses Laufwerk verwenden, um ein bestimmtes Verzeichnis hier in regelmäßigen Abständen zu sichern. Dazu erstelle ich noch…
Kommentare sind geschlossen.Klingt komisch, ist aber so. Die folgenden 3 Gründe beweisen, dass ich Recht habe. Alles in allem ein sehr merkwürdiger Zufall. Ist das alles evtl. doch nur eine Simulation? 😉
Kommentare sind geschlossen.Die Transformer-Technologie dominiert aktuell den Bereichen des maschinellen Lernens bei der natürlichen Sprachverarbeitung. Eingeführt wurde der Transformer im Jahr 2017 durch in dem Papier „Attention is All You Need“. Die Transformer-Architektur hat das Konzept des Selbst-Attention-Mechanismus populär gemacht. Dieser ermöglicht es, Wichtigkeiten unterschiedlicher Teile eines Textes zu erkennen und darauf zu reagieren. Seit ihrer Einführung haben Transformer-Modelle die Grundlage für fortschrittliche Sprachmodelle wie z.B. GPT gebildet und sind zum Standard für viele Aufgaben im Bereich des NLP (Natural Language Processing) geworden. Damit ist es aber nun vorbei – wenn es nach Sepp Hochreiter und seinem neu vorgestellten xLSTM geht. Beim xLSTM, handelt es sich um eine erweiterte Form des LSTM, das laut Sepp Hochreiter ein neues Kapitel in der Entwicklung…
Kommentare sind geschlossen.Das Buch „Reinforcement Learning: Aktuelle Ansätze verstehen – mit Beispielen in Java und Greenfoot“ von Uwe Lorenz bietet eine Einführung in das Feld des Reinforcement Learnings (RL), einem forgeschrittenen Thema der künstlichen Intelligenz und des maschinellen Lernens. In dem Buch zielt Uwe Lorenz darauf ab, das Reinforcement Learning einem breiten Publikum verständlich zu machen, was ihm mit dem Buch gut gelungen ist. In dem Buch werden dem Leser anhand praktischer Beispiele in der Programmiersprache Java und der Entwicklungsumgebung Greenfoot die Grundlagen des Reinforcement Learnings nahe gebracht. Dieser Ansatz ist besonders bemerkenswert, da die meisten Bücher in diesem Bereich üblicherweise Python als Programmiersprache verwenden. Die Entscheidung für Java macht das Buch besonders interessant für mich, da Java meine bevorzugte Programmiersprache ist…
Kommentare sind geschlossen.