Just write something here.
01
01
Efficient Teacher Efficient Teacher
基于单阶段锚框的检测器缺乏生成高质量或灵活伪标签的结构,导致半监督目标检测(SSOD)出现严重的不一致性问题。 在本文中,我们提出了 Efficient Teacher(高效教师)框架,用于可扩展且有效的基于锚点的单阶段 SSOD 训练。由
2025-01-01
12
21
项目编译成pyc运行流程 项目编译成pyc运行流程
使用comileall编译oadp/dp下的所有文件 例如: import compileall as caca.compile_dir(r'oadp/dp') 需要删掉/移除到原本的py文件,并将dp/__pycache__下的所有文
2024-12-21
18
环境配置 18的nvcc –version显示的CUDA版本(10.0)和nvidia-smi版本(12.4)不一样 conda create -n sas_det python=3.8conda activate sas_detconda
2024-12-18 CuberSugar
13
InstructBLIP论文笔记 InstructBLIP论文笔记
背景大规模的预训练和指令调整已经成功地创建了具有广泛能力的通用语言模型。然而 ,由于额外的视觉输入带来了丰富的输入分布和任务多样性,建立通用视觉语言模型具有挑战性。尽管视觉语言预训练已被广泛研究,但视觉语言指令调整仍未得到充分探索。 为了应
2024-12-13
06
CoCa论文笔记 CoCa论文笔记
CoCa:Contrastive Captioner探索大规模的预训练base模型在计算机视觉领域有重要意义,因为这些模型可以快速转移到许多下游任务中。 现有的三种基础模型训练方法1. 单编码模型single-encoder models只
2024-12-06
03
ALBEF论文笔记 ALBEF论文笔记
ALBEF论文笔记简介现有方法的缺陷 图像特征和单词标记嵌入位于它们自己的空间中,这使得多模态编码器学习建模其交互具有挑战性; 目标检测器既注释昂贵又计算昂贵,因为它在训练前需要边界框注释,以及高分辨率(例如。600×1000)图像; 广泛
2024-12-03
03
BLIP论文笔记 BLIP论文笔记
预训练 图像编码器:ViT的架构。将输入图像分割成一个个的 Patch 并将它们编码为一系列 Image Embedding,并使用额外的 [CLS] token 来表示全局的图像特征。 文本编码器:BERT 的架构。[CLS] toke
2024-12-03
01
bug记录 bug记录
git经常出现fatal error的问题:参考这个https://blog.csdn.net/Greenhand_BN/article/details/135881590 后端 controller层某个api方法里service类为nu
2024-12-01
01
db第三章作业 db第三章作业
一、在school数据库中完成以下练习sql语句-- 1 创建表,并定义相应的完整性约束CREATE TABLE 系 ( 系号 INT, 系名 VARCHAR(30) UNIQUE, 系主任 VARCHAR(15), PRIMARY KEY
2024-12-01
01
db db
数据库表设计修改 除学号、工号外id都改为INT AUTO_INCREMENT自增长整型 添加操作日志表 消息表调整为两个表 公告改名Notice -> Annocement,因为消息会命名成Notify,区别一下 补充:
2024-12-01
2 / 6