| Posició | Domini | Pàgina | Accions |
|---|---|---|---|
| 1 | openai.com | /index/clip/ | |
|
URL complet
Títol
CLIP
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
5 янв. 2021 г. — We're introducing a neural network called CLIP which efficiently learns visual concepts from natural language supervision . |
|||
| 2 | habr.com | /ru/articles/539312/ | |
|
URL complet
Títol
Нейронная Сеть CLIP от OpenAI - Habr
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
26 янв. 2021 г. — Можете представить себе классификатор изображений, который решает практически любую задачу , и который вообще не нужно обучать? |
|||
| 3 | github.com | /openai/clip | |
|
URL complet
Títol
openai/CLIP
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
CLIP (Contrastive Language-Image Pre-Training) is a neural network trained on a variety of (image, text) pairs. It can be instructed in natural language to ... |
|||
| 4 | huggingface.co | /openai/clip-vit-lar... | |
|
Títol
openai/clip-vit-large-patch14
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
The CLIP model was developed by researchers at OpenAI to learn about what contributes to robustness in computer vision tasks. |
|||
| 5 | en.wikipedia.org | /wiki/contrastive_la... | |
|
Títol
Contrastive Language-Image Pre-training
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
Contrastive Language-Image Pre-training (CLIP ) is a technique for training a pair of neural network models, one for image understanding and one for text ... |
|||
| 7 | medium.com | /@paluchasz/understa... | |
|
Títol
Understanding OpenAI's CLIP model | by Szymon Palucha
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
CLIP is a joint image and text embedding model trained using 400 million image and text pairs in a self supervised way. |
|||
| 8 | sysblok.ru | /models/clip/ | |
|
URL complet
Títol
CLIP
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
22 июн. 2021 г. — CLIP (Contrastive Language-Image Pre-training) – мультимодальная (работающая с несколькими модальностями данных) модель. CLIP сопоставляет ... |
|||
| 9 | learnopencv.com | /clip-model/ | |
|
URL complet
Títol
Training a CLIP Model from Scratch for Text ...
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
27 авг. 2024 г. — CLIP by OpenAI is a model that connects text and images, allowing it to recognize and categorize images without needing specific training for each category. |
|||
| 10 | jina.ai | /ru/news/the-what-an... | |
|
Títol
Что такое и почему возникает модальный ...
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
26 авг. 2024 г. — Более новые CLIP-подобные модели используют предварительно обученные компоненты . Это означает отдельное обучение каждого компонента как хорошей ... |
|||
| 11 | arxiv.org | /pdf/2103.00020 | |
|
URL complet
Títol
Learning Transferable Visual Models From Natural ...
Última actualització
N/A
Autoritat de la pàgina
N/A
Trànsit:
N/A
Enllaços d'entrada:
N/A
Accions socials:
N/A
Temps de càrrega:
N/A
Vista prèvia del fragment:
26 февр. 2021 г. — CLIP is much more efficient at zero-shot transfer than our image caption baseline. Although highly expressive, we found that transformer-based ... |
|||