In Jupyter Notebook geschriebene Bibliotheken
GAN_stability
Code für das Papier „Welche Trainingsmethoden für GANs konvergieren tatsächlich? (ICML 2018)“.
- 902
- MIT
Deep_Learning_Machine_Learning_Stock
Deep-Learning- und Machine-Learning-Aktien stellen sowohl für langfristige als auch kurzfristige Anleger und Händler vielversprechende Chancen dar.
- 898
- MIT
telemanom
Ein Framework zur Verwendung von LSTMs zur Erkennung von Anomalien in multivariaten Zeitreihendaten. Enthält Daten zu Raumfahrzeuganomalien und Experimente des Mars Science Laboratory und der SMAP-Missionen.
- 896
- GNU General Public License v3.0
saliency
Framework-unabhängige Implementierung für hochmoderne Salienzmethoden (XRAI, BlurIG, SmoothGrad und mehr).
- 894
- Apache License 2.0
PConv-Keras
Inoffizielle Implementierung von „Image Inpainting für unregelmäßige Löcher mithilfe partieller Faltungen“. Versuchen Sie es unter: www.fixmyphoto.ai.
- 881
- MIT
spyql
Fragen Sie Daten in der Befehlszeile mit SQL-ähnlichen SELECTs ab, die auf Python-Ausdrücken basieren.
- 880
- MIT
AeroPython
Klassische Aerodynamik potenzieller Strömungen mit Python- und Jupyter-Notebooks.
- 860
- GNU General Public License v3.0
vertex-ai-samples
Beispielcode und Notebooks für Vertex AI, die End-to-End-Plattform für maschinelles Lernen in Google Cloud.
- 855
- Apache License 2.0
reinforcement_learning_course_materials
Vorlesungsskripte, Übungsaufgaben inklusive Lösungen sowie Online-Videos zum Reinforcement-Learning-Kurs der Universität Paderborn.
- 852
- MIT
jax-md
Differenzierbare, hardwarebeschleunigte, molekulare Dynamik [Verschoben nach: https://github.com/jax-md/jax-md].
- 851
- Apache License 2.0
qiskit-textbook
Eine auf Qiskit basierende universitäre Kursergänzung zu Quantenalgorithmen/-berechnungen.
- 849
- Apache License 2.0
flowtron
Flowtron ist ein autoregressives, flussbasiertes generatives Netzwerk für die Text-zu-Sprache-Synthese mit Kontrolle über Sprachvariation und Stilübertragung.
- 842
- Apache License 2.0
long_llama
LongLLaMA ist ein großes Sprachmodell, das lange Kontexte verarbeiten kann. Es basiert auf OpenLLaMA und wurde mit der Focused Transformer (FoT)-Methode verfeinert.
- 840
- Apache License 2.0
cs229-2018-autumn
Alle Notizen und Materialien für den Kurs CS229: Maschinelles Lernen der Stanford University.
- 835
chameleon-llm
Codes für „Chameleon: Plug-and-Play-Kompositorisches Denken mit großen Sprachmodellen“.
- 835
- Apache License 2.0
MAPIE
Ein Scikit-Learn-kompatibles Modul zum Schätzen von Vorhersageintervallen.
- 825
- BSD 3-clause "New" or "Revised"