« CLIP » : différence entre les versions

De Wiki BackProp
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
Aucun résumé des modifications
Ligne 1 : Ligne 1 :
CLIP pour (Contrastive Language–Image Pre-training) a été introduit par OpenAi en 2021.
CLIP pour (Contrastive Language–Image Pre-training) a été introduit par OpenAi en 2021.
L'objectif est de contourner les problèmes actuels du Deep Learning, par exemple, ceux liés aux coûts des Datasets (voir ImageNet), à leur limitation de prédiction à l'ensemble des catégories entrainées, à la faible performance.
L'objectif est de contourner les problèmes actuels du Deep Learning, par exemple, ceux liés aux coûts des Datasets (voir [[ImageNet]]), à leur limitation de prédiction à l'ensemble des catégories entrainées, à la faible performance.
 
L'apprentissage décrit par OpenAi s'est fait avec 256 GPU durant 2 semaines.





Version du 8 novembre 2022 à 10:29

CLIP pour (Contrastive Language–Image Pre-training) a été introduit par OpenAi en 2021. L'objectif est de contourner les problèmes actuels du Deep Learning, par exemple, ceux liés aux coûts des Datasets (voir ImageNet), à leur limitation de prédiction à l'ensemble des catégories entrainées, à la faible performance.

L'apprentissage décrit par OpenAi s'est fait avec 256 GPU durant 2 semaines.


Références