资源目录:

│  PPT.zip
│
├─1.大模型技术概述
│      1. 视觉大模型技术概述.mp41. 视觉大模型技术概述_ev.mp4
│
├─2.自监督学习的原理与方法
│      2.1自监督学习与前置任务.mp42.1自监督学习与前置任务_ev.mp42.2对比学习与SimCLR.mp42.2对比学习与SimCLR_ev.mp42.3Moco模型.mp42.3Moco模型_ev.mp42.4MoCo代码详解.mp42.4MoCo代码详解_ev.mp42.5掩码重建与BEiT.mp42.5掩码重建与BEiT_ev.mp4
│
├─3.视觉基础大模型的架构
│      3.1 ViT与其变种.mp43.1 ViT与其变种_ev.mp43.2 MoCo v3自监督骨干网络.mp43.2 MoCo v3自监督骨干网络_ev.mp43.3 DINO模型.mp43.3 DINO模型_ev.mp43.4 DINO代码详解.mp43.4 DINO代码详解_ev.mp43.5 MAE模型.mp43.5 MAE模型_ev.mp43.6 MAE代码详解.mp43.6 MAE代码详解_ev.mp43.7 SAM模型.mp43.7 SAM模型_ev.mp4
│
├─4.多模态视觉大模型
│      4.1 多模态学习的概念.mp44.1 多模态学习的概念_ev.mp44.2 多模态网络的架构.mp44.2 多模态网络的架构_ev.mp44.3 CLIP模型.mp44.3 CLIP模型_ev.mp44.4 CLIP代码详解.mp44.4 CLIP代码详解_ev.mp44.5 GLIP模型.mp44.5 GLIP模型_ev.mp44.6 Flamingo模型.mp44.6 Flamingo模型_ev.mp44.7 LLaVA模型.mp44.7 LLaVA模型_ev.mp4
│
├─5.下游任务迁移与视觉提示
│      5.1 线性探测与微调.mp45.1 线性探测与微调_ev.mp45.2 线性探测与微调代码详解.mp45.2 线性探测与微调代码详解_ev.mp45.3 Adapter方法.mp45.3 Adapter方法_ev.mp45.4 Adapter代码详解.mp45.4 Adapter代码详解_ev.mp45.5 视觉prompt方法.mp45.5 视觉prompt方法_ev.mp45.6 视觉Prompt代码详解.mp45.6 视觉Prompt代码详解_ev.mp45.7 小结.mp45.7 小结_ev.mp4
│
├─6.实战-多模态大模型微调
│      6.1 PandaGPT框架介绍.mp46.1 PandaGPT框架介绍_ev.mp46.2 环境与模型配置.mp46.2 环境与模型配置_ev.mp46.3 项目代码通览.mp46.3 项目代码通览_ev.mp46.4 数据集加载.mp46.4 数据集加载_ev.mp46.5 模型定义.mp46.5 模型定义_ev.mp46.6 模型实现.mp46.6 模型实现_ev.mp46.7 Demo运行.mp46.7 Demo运行_ev.mp4code .zip
│      Vicuna模型加载指南.txt
│      端口映射方法.txt
│
├─7.实战-基于视觉提示的下游迁移
│      7.1 VPT框架通览.mp47.1 VPT框架通览_ev.mp47.2 数据集加载.mp47.2 数据集加载_ev.mp47.3 模型定义.mp47.3 模型定义_ev.mp47.4 模型实现1.mp47.4 模型实现1_ev.mp47.5 模型实现2.mp47.5 模型实现2_ev.mp47.6 病理图像下游迁移.mp47.6 病理图像下游迁移_ev.mp4
│      BCI数据集下载.txtcode .zip
│
├─code
│      adapter.pyCLIP.py
│      DINO.py
│      linear-probing.py
│      MAE.py
│      moco.py
│      prompt-tuning.py
│      全部代码压缩包.zip
│
├─PPT
│      0.视觉大模型课程前置介绍.pptx1.大模型技术概述.pptx2.自监督学习的原理与方法.pptx3.视觉基础大模型的架构.pptx4.多模态视觉大模型.pptx5.下游任务迁移与视觉提示.pptx
│
└─论文
        Gemini-A Family of Highly Capable Multimodal Models.pdf
        ImageBind-One Embedding Space To Bind Them All.pdf
        InternVL-Scaling up Vision Foundation Models and Aligning for Generic Visual-Linguistic Ta