|
--extra-index-url https://download.pytorch.org/whl/cu118
|
|
numpy==1.26.4
|
|
torch==2.1.2+cu118
|
|
torchvision==0.16.2+cu118
|
|
torchaudio==2.1.2+cu118
|
|
# triton # Διατηρήστε το αν ήταν απαραίτητο για το cu118 setup σας, αλλά συνήθως δεν χρειάζεται άμεσα εκτός αν κάνετε compile custom kernels.
|
|
# timm==0.9.12 # Δεν φαίνεται να χρησιμοποιείται άμεσα, μπορείτε να το αφαιρέσετε αν δεν χρειάζεται από κάποια εξάρτηση.
|
|
transformers>=4.38.0 # Αναβάθμιση για καλύτερη υποστήριξη Llama
|
|
chromadb==0.4.24
|
|
scikit-learn==1.3.2
|
|
tqdm
|
|
sentencepiece # Σημαντικό για Llama tokenizers
|
|
joblib
|
|
gradio==4.20.0
|
|
unicodedata2
|
|
scipy
|
|
accelerate>=0.29.0 # Απαραίτητο για device_map="auto" και νεότερες εκδόσεις transformers
|
|
# bitsandbytes>=0.41.0 # Προσθέστε το αν θέλετε να χρησιμοποιήσετε load_in_8bit=True ή load_in_4bit=True για το μοντέλο |