Spaces:
No application file
No application file
metadata
title: VLLM
emoji: 🐢
colorFrom: red
colorTo: red
sdk: docker
pinned: false
license: apache-2.0
short_description: vLLM é uma biblioteca rápida e fácil de usar para inferência
VLLM
Senior Data Scientist.: Dr. Eddy Giusepe Chirinos Isidro
O vLLM
serve para otimizar o desempenho dos Large Language Models (LLMs
), permitindo que eles processem informações de forma mais eficiente e escalável.
Thank God 🤓!