金拱门
通过图片得到店家信息
主要的信息从小票以及照片中得到:
小票:
erbang Alaf Restaura
ald‘s Tesco Pe
照片:malaysia
在Google 中直接搜索相关的关键词:
点击寻找包含相关关键词的网页:
运气不错,找到了这家餐饮公司的所有门店索引页面,通过ctrl+F查找关键词:
tesco pe
锁定门店,搜索关键字,得到结果,我们发现有两家店。
由于店面带有Tesco 即特易购,所以结果为:
1-1-01 & 1-1-02, Lot A3 - 4, Jalan Udini, Gelugor, Malaysia, Pulau Pinang, 11700 George Town, Penang, 马来西亚
2020_Filter Grafting
滤波器嫁接技术:Code: https://github.com/fxmeng/filter-graftingPaper:https://arxiv.org/pdf/2001.05868.pdf
本文贡献: 提出了一种新的学习范式,称为滤波器嫁接。嫁接可以在不改变网络结构的情况下,重新激活无效的过滤器,提高神经网络的潜力。 提出了一种基于熵的准则和自适应加权策略,进一步提高了滤波器嫁接方法的性能。
1.滤波器嫁接动机 构建滤波器嫁接技术的动机是通常在训练完的网络中存在一些无效的滤波器,很多网络模型剪枝的文献中就会把这些无效的滤波器剪切掉。 但是,这些看似无效的滤波器不一定是真的无效的,比如在集成学习中,当单个弱分类器效果差时,它们的组合反而会得到更强的性能。这说明无效的滤波器是可以被激活的,而本文考虑重新激活这些无效滤波器,在不增加模型推理时间的前提下,有效提升网络性能。
2.嫁接与裁剪,蒸馏的区别: 在这里插入图片描述
所谓的激活就是通过将外部信息移植到到这些无效滤波器中,该过程被定义为滤波器嫁接。滤波器嫁接的关键是选择合适的信息源
嫁接可能涉及并行地训练多个网络 ...
2017_Slimming_pytorch
2017 || Slimming-pytorch(剪枝)Official Code(torch):https://github.com/liuzhuang13/slimmingPaper : https://arxiv.org/abs/1708.06519
Third party Code (pytorch):https://github.com/mengrang/Slimming-pytorchhttps://github.com/foolwood/pytorch-slimming
震惊!!!所提出的方法竟能够显著减少计算成本(高达20倍)的最先进的网络,没有精度损失,甚至提升精度。
1.动机:随着网络的深度以及广度的加大,神经网络的模型也越来越大,为了在训练过程中引入的开销最小,生成的模型不需要特殊的软件/硬件加速器。我们将该方法称为网络瘦身,本文的剪枝就是为了得到一个相对紧凑而小的网络。
2.主要实现过程:在Bn层引入放缩因子γ,把放缩因子与卷积层中的每个通道联系起来,在训练过程中对这个放缩因子进行L1稀疏化,通过不断的训练,可以把自动识别不重要的通道(越重要的放缩因子越大, ...
CVPR2021_Coordinate_Attention注意力机制
Paper:https://arxiv.org/pdf/2103.02907.pdfGitHub:https://github.com/Andrew-Qibin/CoordAttention
轻量,优秀,好用!
小知识我从论文中提取的只言片语。。。标准卷积本身很难对信道关系建模。显式地构建通道间的依赖关系可以增加模型对信息通道的敏感性,这些信息通道对最终分类决策的贡献更大。使用全局平均池还可以帮助模型捕获卷积所缺少的全局信息。
讲之前我们先回顾一下以前的SE与CBAM
SESE比较简单,看一下结构图差不多就能理解了,如果有些实现不太懂的,可以借鉴一下CBAM的。
但SE只考虑内部通道信息而忽略了位置信息的重要性,而视觉中目标的空间结构是很重要的。
CBAM稍微介绍一下CBAM,如图b所示,CBAM包含空间注意力和通道注意力两部分。
通道注意力:对input feature maps每个feature map做全局平均池化和全局最大池化,得到两个1d向量,再经过conv,ReLU,1x1conv,sigmoid进行归一化后对input feature maps加权。
空间注意力:对fea ...
IoU loss
IoU Loss突出前景
def _iou(pred, target):
12345678910b = pred.shape[0]IoU = 0.0for i in range(0,b): Iand1 = torch.sum(target[i,:,:,:]*pred[i,:,:,:]) Ior1 = torch.sum(target[i,:,:,:]) + torch.sum(pred[i,:,:,:])-Iand1 IoU1 = Iand1/Ior1 IoU = IoU + (1-IoU1) #因为要算的是错误的大小,所以要1-IoUreturn IoU/b
EGNet中的边缘lossPaper:http://mftp.mmcheng.net/Papers/19ICCV_EGNetSOD.pdfGitHub:https://github.com/JXingZhao/EGNet/在EGNet中,是把阈值为0.5的二值化label扔进边缘损失函数中计算正常的loss部分是用0为阈值的二值化label
1234567891011121314151617181 ...
PointRend
§摘要我们提出了一种高效、高质量的目标和场景图像分割新方法。通过类比经典的计算机图形学方法高效渲染像素标记任务中面临的过采样和欠采样挑战,我们发展了一个独特的视角,将图像分割作为一个渲染问题。从这个优势出发,我们提出了PointRend(基于点的渲染)神经网络模块:该模块基于迭代细分算法,在自适应选择的位置执行基于点的分割预测。PointRend可以通过在现有的最先进的模型之上构建,灵活地应用于实例分割和语义分割任务。虽然很多具体的实现都是可能的,但是我们展示了一个简单的设计已经获得了很好的结果。定性地说,PointRend在以前的方法光滑过的区域中输出清晰的对象边界。从数量上讲,无论是实例还是语义分割,PointRend在COCO和cityscape上都有显著的收益。与现有方法相比,PointRend的效率使得输出分辨率在内存或计算方面更切合实际。
Paper:https://arxiv.org/pdf/1912.08193.pdf
Code:https://github.com/facebookresearch/detectron2/blob/master/projects/Po ...
canny边缘loss
canny边缘lossLoss=L边缘+L全局
通过canny得出预测图像与mask图像的边缘,然后计算损失。
12345678910111213141516171819202122bce_loss = nn.BCELoss(size_average=True) #二分类交叉熵def opencv(images): for i in range(images.shape[0]): image = images[i, 0, :, :] image = image // 0.5000001 * 255 # 二值化 image_2 = image.cpu().detach().numpy() image_2 = image_2.astype(np.uint8) img = cv2.Canny(image_2, 30, 150) img = img.astype(np.float32) img = torch.from_numpy(img) img.type = torc ...
Math
学计算机为什么要学好数学,数学可以为我们提供什么样的思想与工具,数学又在那些方面潜移默化的影响我们的日常?
数学是抽象的,但也正因为所研究出的抽象关系可以指代任何具体事物,要先弄清关系所指的任务、输入和输出后,才可体会真正含义……
一.矩阵乘法的本质:讲的很透彻的一篇知乎回答https://www.zhihu.com/question/21351965
二.线性代数的本质:3Blue1Brown官方双语:https://www.bilibili.com/video/av6731067/?p=1
UP主汉语配音-【线性代数的本质】合集-转载于3Blue1Brown官方双语:https://www.bilibili.com/video/BV1ib411t7YR?from=search&seid=18346436478449455691
一些线代与微积分的演化:https://zhuanlan.zhihu.com/p/44852385
三.机器学习与数学(来自YJango答主,视频做的很好,讲完之后还会有总结升华,剪辑很棒,耳机党极其舒适):什么是机器学习:https://zhuan ...
图像高低频
壹、高低频任意一张图片都有低频高频两类区域有如下不同:
1.对于图片中低频区域(low-frequency、smooth-area),里面的点,大概率属于同一个物体,直觉上,没必要使用太多的采样点。如果使用的点太多,相当于过采样(oversample);2.对于图片中高频区域(high-frequency),里面的点,大概率靠近物体边界。直觉上,如果这些区域的采样点太稀疏,最终会导致分割出来的物体边界过于平滑,不太真实,相当于欠采样(undersample);相反,如果采样点越多,分割出来的物体边界应该会更精细(sharp boundery)、真实。
过采样:将样本少的数据多采样几次。欠采样:将样本多的数据少采样几次。
贰、高低特征低特征(经过的卷积少):低级特征具有丰富的空间细节而缺乏语义信息,细节信息少高特征(经过的卷积多):高级特征具有丰富的语义信息而缺乏空间细节,细节信息多(可以用一个模块对这两个部分进行互补)
因为低特征图细节少,空间多,所以为了节省参数,我们可以把低特图的w,h搞小一点。而高特征图的细节多,为了得到更好的效果,所以要尽量保持其大小。所以我们可以把这两种fea ...
阅读论文常见的英语单词
compute 计算
sample 采样
indices index(下标)的复数
rebust 鲁棒性
correspond 相当于
bound/boundary 边界
sample 抽样
instance 实例
semantic 语义
segmentation 分割
arrows 箭头
solid 实(的箭头)
dash 虚(的箭头)
extract 提取
deficient 缺陷
compute 计算
estimate ...