In Jupyter Notebook geschriebene Bibliotheken
Interactive Parallel Computing with IPython
IPython Parallel: Interaktives paralleles Rechnen in Python.
- 2.4k
- GNU General Public License v3.0
stable-diffusion
Diese Version von CompVis/stable-diffusion verfügt über ein interaktives Befehlszeilenskript, das die Funktionen text2img und img2img in einer Schnittstelle im „Dream Bot“-Stil, einer WebGUI sowie mehreren Funktionen und anderen Verbesserungen kombiniert. [Verschoben nach: https://github.com/invoke-ai/InvokeAI] (von lstein).
- 2.4k
- GNU General Public License v3.0
100-plus-Python-programming-exercises-extended
Das Repository enthält über 100 Python-Programmierübungsprobleme, die auf unterschiedliche Weise diskutiert, erklärt und gelöst werden.
- 2.4k
diffusion-models-class
Materialien für den Kurs „Hugging Face Diffusion Models“.
- 2.4k
- Apache License 2.0
mlops-course
Erfahren Sie, wie Sie eine End-to-End-ML-Anwendung in großem Maßstab entwerfen, entwickeln, bereitstellen und warten.
- 2.4k
- MIT
shapash
🔅 Shapash: Benutzerfreundliche Erklärbarkeit und Interpretierbarkeit zur Entwicklung zuverlässiger und transparenter Modelle für maschinelles Lernen.
- 2.4k
- Apache License 2.0
diff-svc
Gesangsstimmenkonvertierung mittels Diffusionsmodell.
- 2.4k
- GNU Affero General Public License v3.0
3D-printed-mirror-array
3D-druckbare sechseckige Spiegelanordnung, die Sonnenlicht in beliebige Muster reflektieren kann.
- 2.3k
- MIT
leetcode-company-wise-problems-2022
Listen mit unternehmensbezogenen Fragen, die auf Leetcode Premium verfügbar sind. Jede CSV-Datei im Firmenverzeichnis entspricht einer Liste von Fragen zu Leetcode für ein bestimmtes Unternehmen, basierend auf den Leetcode-Firmen-Tags. Aktualisiert im Mai 2022.
- 2.3k
- MIT
whylogs
Eine Open-Source-Datenprotokollierungsbibliothek für Modelle und Datenpipelines für maschinelles Lernen. 📚 Bietet Einblick in die Datenqualität und Modellleistung im Zeitverlauf. 🛡️ Unterstützt die Datenerfassung unter Wahrung der Privatsphäre und gewährleistet so Sicherheit und Robustheit. 📈.
- 2.3k
- Apache License 2.0
stability-sdk
SDK für die Interaktion mit Stability.ai-APIs (z. B. stabile Diffusionsinferenz).
- 2.3k
- MIT
Learning-Bitcoin-from-the-Command-Line
Ein vollständiger Kurs zum Erlernen der Bitcoin-Programmierung und -Nutzung über den Befehl [Verschoben nach: https://github.com/BlockchainCommons/Learning-Bitcoin-from-the-Command-Line] (von ChristopherA).
- 2.3k
ML-foundations
Grundlagen des maschinellen Lernens: Lineare Algebra, Analysis, Statistik und Informatik.
- 2.3k
- MIT
selfie
Ein Lernsoftwaresystem aus einem winzigen selbstkompilierenden C-Compiler, einem winzigen selbstausführenden RISC-V-Emulator und einem winzigen selbsthostenden RISC-V-Hypervisor.
- 2.3k
- BSD 2-clause "Simplified"
Kandinsky-2
Kandinsky 2 – mehrsprachiges text2image latentes Diffusionsmodell.
- 2.3k
- Apache License 2.0
Promptify
Schnelles Engineering | Verwenden Sie GPT oder andere auf Eingabeaufforderungen basierende Modelle, um eine strukturierte Ausgabe zu erhalten. Treten Sie unserem Discord für Prompt-Engineering, LLMs und andere aktuelle Forschungsergebnisse bei.
- 2.3k
- Apache License 2.0
qiskit-tutorials
Eine Sammlung von Jupyter-Notebooks, die die Verwendung des Qiskit SDK zeigen.
- 2.2k
- Apache License 2.0
An-Introduction-to-Statistical-Learning
Dieses Repository enthält die Übungen und ihre Lösung, die im Buch „An Introduction to Statistical Learning“ in Python enthalten sind.
- 2.2k
datasets
🎁 Über 4.800.000 Unsplash-Bilder für Forschung und maschinelles Lernen verfügbar gemacht (von unsplash).
- 2.1k
machine-learning-book
Code-Repository für maschinelles Lernen mit PyTorch und Scikit-Learn.
- 2.1k
- MIT
coursera-deep-learning-specialization
Notizen, Programmieraufgaben und Tests aus allen Kursen der Coursera Deep Learning-Spezialisierung, die von deeplearning.ai angeboten wird: (i) Neuronale Netze und Deep Learning; (ii) Verbesserung tiefer neuronaler Netze: Hyperparameter-Tuning, Regularisierung und Optimierung; (iii) Strukturierung von maschinellen Lernprojekten; (iv) Faltungs-Neuronale Netze; (v) Sequenzmodelle.
- 2.1k
pytorch-GAT
Meine Umsetzung des ursprünglichen GAT-Papiers (Veličković et al.). Ich habe zusätzlich die Datei „playground.py“ eingefügt, um den Cora-Datensatz, GAT-Einbettungen, einen Aufmerksamkeitsmechanismus und Entropiehistogramme zu visualisieren. Ich habe sowohl Cora-Beispiele (transduktiv) als auch PPI-Beispiele (induktiv) unterstützt!
- 2.1k
- MIT