In Jupyter Notebook geschriebene Bibliotheken

codespaces-jupyter

Entdecken Sie maschinelles Lernen und Datenwissenschaft mit Codespaces (von Github).
  • 375
  • MIT

osumapper

Ein automatischer Beatmap-Generator mit Tensorflow / Deep Learning.
  • 375
  • Apache License 2.0

monad-bayes

Eine Bibliothek für probabilistische Programmierung in Haskell.
  • 374
  • MIT

dressing-in-order

(ICCV'21) Offizieller Code von „Dressing in Order: Recurrent Person Image Generation for Pose Transfer, Virtual Try-on and Outfit Editing“ von Aiyu Cui, Daniel McKee und Svetlana Lazebnik.
  • 373
  • GNU General Public License v3.0

Compositional-Visual-Generation-with-Composable-Diffusion-Models-PyTorch

[ECCV 2022] Kompositionsgenerierung mithilfe von Diffusionsmodellen.
  • 371
  • GNU General Public License v3.0

blended-latent-diffusion

Offizielle Implementierung für „Blended Latent Diffusion“ [SIGGRAPH 2023].
  • 370
  • MIT

practical_cheminformatics_tutorials

Praktische Chemieinformatik-Tutorials.
  • 369
  • MIT

malaya

Natural Language Toolkit für Bahasa Malaysia, https://malaya.readthedocs.io/.
  • 369
  • MIT

UC2-GIT

Repository für das modulare Open-Science-Mikroskopsystem.
  • 368
  • GNU General Public License v3.0

fromage

🧀 Code und Modelle für das ICML 2023-Papier „Grounding Language Models to Images for Multimodal Inputs and Outputs“.
  • 368
  • Apache License 2.0

SOAT

Offizielles PyTorch-Repo für StyleGAN of All Trades: Bildmanipulation nur mit vorab trainiertem StyleGAN.
  • 367
  • MIT

alphatools

Quantitative Finanzforschungstools in Python.
  • 366
  • Apache License 2.0

alpaca-lora

Anweisen und Abstimmen von LLaMA auf Consumer-Hardware (von chris-alexiuk-1).
  • 365
  • Apache License 2.0

serverless-ml-course

Kurs für serverloses maschinelles Lernen zum Aufbau KI-gestützter Vorhersagedienste aus Modellen und Funktionen.
  • 364
  • Creative Commons Zero v1.0 Universal

FOXTracker

Gesichts-Kopfhaltungs-Tracker für Spiele.
  • 364
  • GNU Lesser General Public License v3.0 only

trulens

Auswertung und Tracking für LLM-Experimente.
  • 363
  • MIT

amazon-textract-code-samples

Amazon Textract-Codebeispiele.
  • 361
  • MIT No Attribution

maxvit

[ECCV 2022] Offizielles Repository für „MaxViT: Multi-Axis Vision Transformer“. SOTA-Grundlagenmodelle für Klassifizierung, Erkennung, Segmentierung, Bildqualität und generative Modellierung....
  • 360
  • Apache License 2.0

whotracks.me

Daten aus der größten und längsten Messung des Online-Trackings.
  • 359
  • MIT

Workshops

Organisierte Workshops, um Studenten mit Sicherheit, KI, Blockchain, AR/VR, Hardware und Software vertraut zu machen (von PoCInnovation).
  • 353
  • MIT

replika-research

Forschungsarbeiten, Poster, Folien und Datensätze von Replika.ai.
  • 351

HIPT

Hierarchischer Bildpyramidentransformator – CVPR 2022 (mündlich).
  • 350
  • GNU General Public License v3.0

stable-diffusion-prompt-inpainting

Dieses Projekt hilft Ihnen beim prompt-basierten Inpainting, ohne die Maske malen zu müssen – mithilfe von Stable Diffusion und Clipseg.
  • 350

godot_oculus_quest_toolkit

Ein benutzerfreundliches VR-Toolkit für die Oculus Quest-Entwicklung unter Verwendung der Godot-Spiel-Engine.
  • 348
  • MIT

Gather-Deployment

Sammelt Bereitstellung und Praktiken, 100 % Docker.
  • 348
  • MIT

hamiltonian-nn

Code für unseren Artikel „Hamiltonian Neural Networks“.
  • 347
  • Apache License 2.0

CodeProject.AI-Server

CodeProject SenseAI ist ein eigenständiger Dienst, den Softwareentwickler in ihre Anwendungen integrieren und mit ihnen verteilen können, um ihre Apps mit der Leistungsfähigkeit der KI zu erweitern.
  • 345
  • GNU General Public License v3.0

UnpromptedControl

Entfernen Sie unerwünschte Objekte und stellen Sie Bilder ohne Aufforderung wieder her, unterstützt von ControlNet.
  • 344
  • GNU General Public License v3.0

IElixir

Jupyters Kernel für die Programmiersprache Elixir.
  • 344
  • Apache License 2.0

Data_Structures_and_Algorithms_in_Python

:book: Ausgearbeitete Lösungen von „Data Structures & Algorithms in Python“, geschrieben von Michael T. Goodrich, Roberto Tamassia und Michael H. Goldwasser. ✏️.
  • 343