| Position | Domæne | Side | Handlinger |
|---|---|---|---|
| 1 | openai.com | /index/clip/ | |
|
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
5 янв. 2021 г. — We're introducing a neural network called CLIP which efficiently learns visual concepts from natural language supervision . |
|||
| 2 | habr.com | /ru/articles/539312/ | |
|
Fuld URL
Titel
Нейронная Сеть CLIP от OpenAI - Habr
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
26 янв. 2021 г. — Можете представить себе классификатор изображений, который решает практически любую задачу , и который вообще не нужно обучать? |
|||
| 3 | github.com | /openai/clip | |
|
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
CLIP (Contrastive Language-Image Pre-Training) is a neural network trained on a variety of (image, text) pairs. It can be instructed in natural language to ... |
|||
| 4 | huggingface.co | /openai/clip-vit-lar... | |
|
Titel
openai/clip-vit-large-patch14
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
The CLIP model was developed by researchers at OpenAI to learn about what contributes to robustness in computer vision tasks. |
|||
| 5 | en.wikipedia.org | /wiki/contrastive_la... | |
|
Titel
Contrastive Language-Image Pre-training
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
Contrastive Language-Image Pre-training (CLIP ) is a technique for training a pair of neural network models, one for image understanding and one for text ... |
|||
| 7 | medium.com | /@paluchasz/understa... | |
|
Titel
Understanding OpenAI's CLIP model | by Szymon Palucha
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
CLIP is a joint image and text embedding model trained using 400 million image and text pairs in a self supervised way. |
|||
| 8 | sysblok.ru | /models/clip/ | |
|
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
22 июн. 2021 г. — CLIP (Contrastive Language-Image Pre-training) – мультимодальная (работающая с несколькими модальностями данных) модель. CLIP сопоставляет ... |
|||
| 9 | learnopencv.com | /clip-model/ | |
|
Fuld URL
Titel
Training a CLIP Model from Scratch for Text ...
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
27 авг. 2024 г. — CLIP by OpenAI is a model that connects text and images, allowing it to recognize and categorize images without needing specific training for each category. |
|||
| 10 | jina.ai | /ru/news/the-what-an... | |
|
Titel
Что такое и почему возникает модальный ...
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
26 авг. 2024 г. — Более новые CLIP-подобные модели используют предварительно обученные компоненты . Это означает отдельное обучение каждого компонента как хорошей ... |
|||
| 11 | arxiv.org | /pdf/2103.00020 | |
|
Fuld URL
Titel
Learning Transferable Visual Models From Natural ...
Sidst opdateret
N/A
Sideautoritet
N/A
Trafik:
N/A
Backlinks:
N/A
Sociale aktier:
N/A
Indlæsningstid:
N/A
Forhåndsvisning af uddrag:
26 февр. 2021 г. — CLIP is much more efficient at zero-shot transfer than our image caption baseline. Although highly expressive, we found that transformer-based ... |
|||