通过ModelScope开源多模态Embedding模型进行向量生成

DashVector · · 533 次点击 · · 开始浏览    
这是一个创建于 的文章,其中的信息可能已经有所发展或是发生改变。

本文介绍如何通过[ModelScope魔搭社区](https://modelscope.cn/)中的[多模态表征开源模型](https://modelscope.cn/models?page=1&tasks=multi-modal-embedding&type=multi-modal)进行 **多模态向量生成** ,并入库至向量检索服务DashVector中进行向量检索。 [ModelScope魔搭社区](https://modelscope.cn/)旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单。 ModelScope魔搭社区的愿景是汇集行业领先的预训练模型,减少开发者的重复研发成本,提供更加绿色环保、开源开放的AI开发环境和模型服务,助力绿色"数字经济"事业的建设。 ModelScope魔搭社区将以开源的方式提供多类优质模型,开发者可在平台上免费体验与下载使用。 在ModelScope魔搭社区,您可以: * 免费使用平台提供的预训练模型,支持免费下载运行 * 一行命令实现模型预测,简单快速验证模型效果 * 用自己的数据对模型进行调优,定制自己的个性化模型 * 学习系统性的知识,结合实训,有效提升模型研发能力 * 分享和贡献你的想法、评论与模型,让更多人认识你,在社区中成长 前提条件 --------------------- * DashVector: * 已创建Cluster * 已获得API-KEY * 已安装最新版SDK * ModelScope * 已安装最新版SDK:`pip install -U modelscope` **CLIP模型** --------------------------- ### **简介** 本项目为[CLIP](https://arxiv.org/abs/2103.00020)模型的中文版本,使用大规模中文数据进行训练( **\~2亿图文对** ),可用于图文检索和图像、文本的表征提取,应用于搜索、推荐等应用场景。 关于CLIP模型更多信息请参考:[CLIP模型](https://modelscope.cn/models?name=CLIP&page=1&tasks=multi-modal-embedding&type=multi-modal) ### **使用示例** **说明** 需要进行如下替换代码才能正常运行: 1. DashVector api-key替换示例中的{your-dashvector-api-key} 2. DashVector Cluster Endpoint替换示例中的{your-dashvector-cluster-endpoint} 3. 使用上表中 **模型ID** 替换示例中的{model_id} 4. 使用上表中 **向量维度** 替换示例中的{model_dim} Python ```python from modelscope.utils.constant import Tasks from modelscope.pipelines import pipeline from modelscope.preprocessors.image import load_image from typing import List from dashvector import Client pipeline = pipeline(task=Tasks.multi_modal_embedding, model='{model_id}') def generate_text_embeddings(texts: List[str]): inputs = {'text': texts} result = pipeline.forward(input=inputs) return result['text_embedding'].numpy() def generate_img_embeddings(img: str): input_img = load_image(img) inputs = {'img': input_img} result = pipeline.forward(input=inputs) return result['img_embedding'].numpy()[0] # 创建DashVector Client client = Client( api_key='{your-dashvector-api-key}', endpoint='{your-dashvector-cluster-endpoint}' ) # 创建DashVector Collection rsp = client.create('CLIP-embedding', dimension={model_dim}) assert rsp collection = client.get('CLIP-embedding') assert collection # 向量入库DashVector collection.insert( [ ('ID1', generate_text_embeddings(['阿里云向量检索服务DashVector是性能、性价比具佳的向量数据库之一'])[0]), ('ID2', generate_img_embeddings('https://clip-cn-beijing.oss-cn-beijing.aliyuncs.com/pokemon.jpeg')) ] ) # 向量检索 docs = collection.query( generate_text_embeddings(['The best vector database'])[0] ) print(docs) ```

有疑问加站长微信联系(非本文作者))

入群交流(和以上内容无关):加入Go大咖交流群,或添加微信:liuxiaoyan-s 备注:入群;或加QQ群:692541889

533 次点击  
加入收藏 微博
暂无回复
添加一条新回复 (您需要 登录 后才能回复 没有账号 ?)
  • 请尽量让自己的回复能够对别人有帮助
  • 支持 Markdown 格式, **粗体**、~~删除线~~、`单行代码`
  • 支持 @ 本站用户;支持表情(输入 : 提示),见 Emoji cheat sheet
  • 图片支持拖拽、截图粘贴等方式上传