青舍×COCO-MAT | 雅典与北京 迷失和找寻

新手学堂025

青舍×COCO-MAT | 雅典与北京 迷失和找寻,第1张

“2019年最遗憾的事,便是离开希腊时,错过了与Stella说再见的机会。如此伤心,也因为我没信心还能与她再见。这让我记起那些,只是错过了某些时机,便再没相见的朋友。想到这里,不免心酸。”

Stella生在雅典长在雅典,又在COCO-MAT工作过,自然是最合适的地接人选

6月结束希腊的行程,8月又离开了北京,如今我已到了完全陌生的法国南特。

当一切从零开始,我似乎也得了空闲,有心思审视前半年所发生的一切。

从熟悉的地方抽离,重新掂量了雅典与北京在自己心中的分量,甚至发现了其中的一些联系。于是,听着Falling From Grace,我重新拾起在希腊与COCO-MAT一起的那段时光。

COCO-MAT想要引领怎样的生活?

诚实,负责,热情好客——COCO-MAT希望每个人过得简单而快乐。

有时,幸福需要一顿健康的早餐,富含蛋白质与维生素;有时,幸福需要一次日常的骑行,沿途有不俗的风景;有时,幸福需要我们张开双臂,或是在嘴角挂起微笑……

●○○○

COCO-MAT采用什么材质?

棉花、椰果、海草、木材、桉树叶、天然乳胶、马鬃、亚麻、鹅绒、羊毛、仙人掌、薰衣草

在人类文明尚未出现的时候,茂盛的丛林,雾气朦胧的河流,万物沐浴在阳光中,日晖、暖融给予着生命最大的幸福。没有科技与人工干预之时,自然本就是最 美的 样子。如今COCO-MAT正在用这些最天然的材料,小心呵护着卧室中的愉悦与安全。

○●○○

我们适应 床垫 ?还是床垫适应我们?

最了解正确还是错误的,正是我们的身体。COCO-MAT开发了可适应任何形体的高弹性床垫,每种产品内部均由多层天然材料堆叠,不使用任何金属弹簧。较硬的椰子纤维提供了大部分支撑,而较软的天然乳胶层则可跟随身形变化,拥抱人体的每条曲线。

COCO-MAT不愿让身体适应床垫,而是让床垫最大程度地,尊重身体。

○○●○

床垫品牌为何做酒店业务?

自1989年创立以来,以天然材料手工制作床垫的COCO-MAT衍生出各类产品,成为有综合竞争力的家居品牌。

2012年,COCO-MAT启动酒店业务。一方面,与同样尊重自然的酒店合作,让住客体验到天然的好产品;另一方面,他们也经营起了「自己」的酒店。这里遵循着「守护自然与健康」的理念,且每一家酒店都具有独特性,绝非千篇一律。

○○○●

这场由北京飞往雅典的旅程,由希腊国宝级床垫品牌COCO-MAT在中国的合作伙伴科唛组织成行。浩浩荡荡一行人,横跨了设计、家居、文旅、媒体多个行业。

希腊行的目的于这群人而言,外表上也还算体面而统一,但小聊一下便可知,其实「各怀鬼胎」。

有只要吃喝 开心 、风景秀丽就满足的「游人」,有想要多多了解希腊与COCO-MAT的「学者」,有想要深入了解设计师的「工作狂」……

而我,则是那个自认已了解COCO-MAT,却愁于不知能否在旅行中找到新的灵感与角度,写出不令人失望游记的「观望者」。

就这样,我们揣着各自的小心思,开始了这场旅行。

大概是2017年的这个时候,我们认识了COCO-MAT。当时青舍与COCO-MAT希腊创始人Paul Efmorfidis在北京相遇。谁知,见面的第一天就骑行了十几公里,这也让我们一下从「与人相遇」变成了「与品牌相知」。

自那时结下缘分后,我们也在各类报道中,无数次写到这位好友。这也是为什么,这篇游记我写起来尤其竭尽心力,也尤其头疼的原因——没人想要重复过去,我们都想要再往前一步。

☀ 12:28 PM,Vari

☀13:00 PM,Vouliagmeni

☀11:03 AM,Kalivia Thorikou

无论内心是否藏着忐忑,当我迈上希腊这片土地的那个瞬间,还是从工作中走了神儿。我边走边记录着希腊的天空——云彩很高,很偶尔的时候,才因为水汽很重而出现大朵大朵连成一片的低云。

万万没想到,扛过了赤道边的菲律宾、泰国的太阳,我却彻底输给了希腊的艳阳。回国时,阴影笔成了高光笔——皮肤早已深了三个色号。或许希腊就是有这样的魅力,吸引你完整的暴露在阳光中享受温暖,什么黑了白了,都不若眼前景色美得透彻。

这并不是COCO-MAT中国区合作伙伴、科唛主理人王秋华第一次来希腊总部了,他与这里早已密不可分。但我们也看得出来,决定在北京开辟COCO-MAT酒店业务后的这第一次希腊总部之行,对他而言总有些道不清的压力。

家居品牌依赖传统家居卖场开店的形式,仍旧是目前的业界主流,但随着品牌业态的逐步扩充,消费人群体验欲望的增大,传统卖场渐渐无法满足所有人的诉求了。

早年修习建筑的秋华总,对于理想的家与生活,有着独立的思考,在国内市场摸爬多年,也始终没放弃过自己的坚持。也正因此,在王秋华手中的COCO-MAT,从未走进传统家居销售场景,更多出现在Shopping Mall中。

生活节奏之快,人心之浮动,常常让城市中的主流思想「误入歧途」,能排几个小时队买奶茶的人,为何不愿花时间为自己选张床垫?这有时也成了让买卖双方都百思不得其解的问题。

所以,秋华总越来越希望,COCO-MAT的店面能跳出传统模式,找到自己最恰当的存在,更让消费者能体验到舒服、放松与安心。

或许有一日,它会成为一个拥有综合功能并崇尚自然的空间——能买、能吃、能玩,甚至能健身、能娱乐,且这一切,都要以健康 环保 为基础,处处透着草木阳光的味道。

只是,那个完美的商业环境哪里有那么好寻觅。秋华总想寻觅一个完美「乌托邦」却求而不得,于是他为了不被资本裹挟,不委曲求全,就在不间断的努力中,生出了一个惊人的念头来——寻个「乌托邦」若不可行,那就建个「乌托邦」吧。

还记得儿时的动画片「魔方大厦」,原以为是一个小小的魔方,谁知摔出窗外竟变成一栋光怪陆离的大厦。而在国内打造一个COCO-MAT酒店这个念头,初起在我心中便如同「魔方大厦」般,体量自外看并不大,探索起来才发觉其中玄妙。

阳光、绿植、COCO-MAT……秋华总对于这个正在筹划中的酒店的想像与要求愈发具象。

这里与睡眠体验相关的一切产品,目之所及的大部分家居产品,甚至健身房中的运动器材,均来自COCO-MAT。餐食、饮料也取材自然,不仅复刻了希腊风味,还将与北京应季的蔬果进行了结合。

酒店里,还有一间COCO-MAT商店,大到床垫、 沙发 、床具,小到拖鞋、毛巾、绿植一应俱全,可随时买走。

这一行,我们主要体验了四间COCO-MAT酒店——

COCO-MAT Athens BC

COCO-MAT Athens Jumelle

COCO-MAT Eco Residences Serifos

COCO-MAT Hotel Nafsika

他们虽拥有决然不同的风格

却因「自然」被紧紧串联在一起

COCO-MAT Athens BC

位于雅典市中心的COCO-MAT Athens BC酒店是这里最高的现代建筑之一。出于对“几步之遥”的卫城博物馆的尊重,它采用天然材料建造。据说,当时还发现了海龟纹样的古硬币

酒店将部分遗址留了下来,还在入口处以海龟为素材做了与这个古老街区相配的装置

被房间所环绕的中庭里,海鸟们定时煽动翅膀,沿着螺旋向上的轨迹飞翔

坐卧在天台上,一旁的“卫城”像被一只大手托举到我们眼前。不论白天黑夜,天台都是这里最热门的休憩地

COCO-MAT Athens Jumelle

COCO-MAT Athens Jumelle酒店位于雅典最热门的马尔马洛区,自这里步行可达的希腊国家公园,是我们这一行的最爱

这栋公寓楼1935年全面翻新,在古 罗马 巴西利卡式的基础上,融合东方艺术,是典型拜占庭风格的建筑

这里与 其他 COCO-MAT酒店相比,貌似少了点自然,多了些时髦。但细细追究原来这些低调优雅均以自然打底。 楼梯 改造时,就保留了一半原来的材料,修旧如新,既环保又够味儿

天然材料、微妙色调、原始表面、醒目的装饰,每间客房都被精心设计过

楼顶墙绘与雅典天空的云朵实在相配,在这里用餐,时间会在不知不觉间溜走

COCO-MAT Hotel Nafsika

被草木环植的COCO-MAT Hotel Nafsika,位于雅典美丽的郊区Kifissia。这里是人们休憩、娱乐、热烈拥抱自然的地方。而与每间卧室相连的宽敞阳台,更让我们对Kifissia的美景流连

「绿色」几乎成了这里每家每户都必备的精神食粮

夜晚舒适的COCO-MAT睡眠系统与晨起后营养好味的丰盛早餐搭配,让人既期待熟睡,又期待醒来

COCO-MAT Eco Residences Serifos

从雅典出发,乘轮渡约2小时到达Serifos岛,这里散发出的宁静,与COCO-MAT的味道相得益彰

酒店所属的私人沙滩,曾是一个小港口,此时用于停靠船只的石板已被海水打磨得光滑无比

COCO-MAT用对生态友好的自然材料,给1900年的矿工房来了次「复兴」

希腊著名建筑师George Zafiriou在为曾经的矿工居住区注入新生命时,融合了当地的传统建筑元素、工业氛围与自然风光

岛上被白蓝两色占据,小镇和村庄中充满了典型的基克拉底传统建筑。游泳、潜水、爬山、骑行,住在这里小心迷失自己

「自然」二字的释义很多,无修饰、纯天然、不局促、不呆板不知是不是走火入魔,如今见到与「自然」相关的任何字眼,总会潜意识与COCO-MAT联想在一起。

COCO-MAT的现任CEOMike Evmorfidis

这次,我们还与COCO-MAT的现任CEO Mike Evmorfidis相遇。Mike 与两年前和我们一同骑行的Paul可是真的兄弟,不过他们虽面容相似,但气质却全然不同。如果说Paul是COCO-MAT「火」一样的灵魂核心,那Mike则更像是助力COCO-MAT稳步前行的幕后推手。

COCO-MAT创始人 Paul Evmorfidis

在与Mike闲聊时,我们总想从他那里多听些COCO-MAT与希腊的联系,但他却不曾对所谓的「希腊味」夸夸其谈。不想教导谁,更不想科普什么,在Mike心中COCO-MAT并非是谁的引领者,而是那个安静的陪伴与守护者。

“与自然一样”,他这样说道。

如自然二字的释义,COCO-MAT所鼓励、所期待的,是一种「放松而不局促」的生活状态,是一种「亲近大自然」的空间氛围,以及一种「做自己」的生活态度。

RELAX、NATURE、ME,这三者无分先后,无论轻重,如何排列组合MIke准备听大家的。

原本猜测Mike会将COCO-MAT与希腊「捆绑销售」,但显然,对于拥有足够文化自信的希腊人而言,强调历史与文化,不如直接将它们融入生活来得实在。

COCO-MAT最关心的,从来不是「希腊」二字是否成为了自己的标签,而是这种崇尚自然与回归本我的状态,能否真的走进每个人心中。

想来,这也是秋华总有信心将COCO-MAT酒店带到国内的原因之一吧。「自然」本就没有国界,只要唤醒大家对于自然的渴望,就足以让不同国籍的人对其产生共鸣了。

突然想起COCO-MAT酒店大厅中摆放的那些餐食、蔬果,如同家人提前为你备下的小食一般亲切。“甭客气,跟在自己家一样”这句话,在这儿也妥妥行得通。

我不知道用笑靥如花来形容Stella,会不会有损她的异国气质,但留在我心里久久抹不掉的正是她的笑颜。

当大家顶着艳阳走在国家公园,当我们流着汗骑着木头单车在雅典穿行……不管是手忙脚乱时,还是游刃有余时,她永远都是一副笑笑的样子。

有时很难想像,这样一个希腊**姐和我到底有着多大的文化差异,但有趣的是,我们竟然一样喜欢单车,一样喜欢大海,一样喜欢夸奖好看的姑娘。

北京与雅典,760969公里,的确挺远,但来到这儿,我却并未感到陌生。

或许是从哥本哈根直奔雅典,一下从北欧人身高的压迫感里解脱出来的那种舒适感;又或许是看到飞机上直接脱光光换衣服的希腊小哥,光脚走来走去的希腊姑娘,瞬间想起四九城里露着肚皮乘凉的北京爷们顿感亲切。

总之,北京-希腊,希腊-北京,那无视别人目光,追求自然,不拘着的状态,真是一模一样。

身处地中海气候的这座城市,并不湿润。海水不少,一面绿地一面砂石的景色也遍地皆是,而当我们一点点接近市中心,楼宇缓缓探出身来,那破败与老旧的墙体外立面,以及其中向人微笑的小花,无不令我想念起远方的北京。

从小在先农坛边上长大,日日盯着古建筑博物馆的我,早已对传统的明清建筑失去了新鲜感,而一样「穿梭于古今」的雅典人,亦是如此。

谈及古建,大家眼神中流露出的更多是习惯。

对于彼此的历史、建筑,我们互看时觉得新奇,对视时又产生了共鸣,就连坐在一起说英国人「坏话」的时候,竟也十分合得来。

当地人与「遗憾」相处的样子,我记得很深。那种与自然、历史、甚至裂痕相处的样子,是最熟悉的味道。

希腊雕塑中残缺的「遗憾」,丝毫没有影响人们对它的喜爱,若无法修旧如旧,破败的样子也十分迷人。

这让我想起八个月前北京的那场大雪,当看到胡同里葫芦架子上缠绕的各种手工作品时,我会心一笑。是啊,如若所有胡同都换上新妆,我们不能再与「遗憾」相处,那才真是永远的遗憾吧。

正是这些相通之处,也让我们更期待COCO-MAT酒店在北京落成的那刻,希腊味加中国味,雅典味加北京味,一定不赖。

END

文字&视频 / 刘亚言 主编 / 王哥

摄影 / 大地野食蘑菇 青舍 设计 / 路老

以上稿件均为青舍QingHouse专属写手原创采写制作

拒 绝 转 载 , 欢 迎 转 发

微信ID:QingHouse813

长按指纹识别二维码关注

https://blogcsdnnet/Gentleman_Qin/article/details/84349144

|声明:遵循CC 40 BY-SA版权协议

    建立在YOLOv1的基础上,经过Joseph Redmon等的改进,YOLOv2和YOLO9000算法在2017年CVPR上被提出,并获得最佳论文提名,重点解决YOLOv1召回率和定位精度方面的误差。在提出时,YOLOv2在多种监测数据集中都要快过其他检测系统,并可以在速度与精确度上进行权衡。

    YOLOv2采用Darknet-19作为特征提取网络,增加了批量标准化(Batch Normalization)的预处理,并使用224×224和448×448两阶段训练ImageNet,得到预训练模型后fine-tuning。

    相比于YOLOv1是利用FC层直接预测Bounding Box的坐标,YOLOv2借鉴了FSR-CNN的思想,引入Anchor机制,利用K-Means聚类的方式在训练集中聚类计算出更好的Anchor模板,在卷积层使用Anchor Boxes操作,增加Region Proposal的预测,同时采用较强约束的定位方法,大大提高算法召回率。同时结合图像细粒度特征,将浅层特征与深层特征相连,有助于对小尺寸目标的检测。 

    下图所示是YOLOv2采取的各项改进带了的检测性能上的提升:

    YOLO9000 的主要检测网络也是YOLO v2,同时使用WordTree来混合来自不同的资源的训练数据,并使用联合优化技术同时在ImageNet和COCO数据集上进行训练,目的是利用数量较大的分类数据集来帮助训练检测模型,因此,YOLO 9000的网络结构允许实时地检测超过9000种物体分类,进一步缩小了检测数据集与分类数据集之间的大小代沟。

    下面将具体分析YOLOv2的各个创新点:

BN概述:

    对数据进行预处理(统一格式、均衡化、去噪等)能够大大提高训练速度,提升训练效果。BN正是基于这个假设的实践,对每一层输入的数据进行加工。

    BN是2015年Google研究员在论文《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》一文中提出的,同时也将BN应用到了2014年的GoogLeNet上,也就是Inception-v2。

    BN层简单讲就是对网络的每一层的输入都做了归一化,这样网络就不需要每层都去学数据的分布,收敛会更快。YOLOv1算法(采用的是GoogleNet网络提取特征)是没有BN层的,而在YOLOv2中作者为每个卷积层都添加了BN层。

    使用BN对网络进行优化,让网络提高了收敛性,同时还消除了对其他形式的正则化(regularization)的依赖,因此使用BN后可以从模型中去掉Dropout,而不会产生过拟合。

BN优点:

神经网络每层输入的分布总是发生变化,加入BN,通过标准化上层输出,均衡输入数据分布,加快训练速度,因此可以设置较大的学习率(Learning Rate)和衰减(Decay);

通过标准化输入,降低激活函数(Activation Function)在特定输入区间达到饱和状态的概率,避免梯度弥散(Gradient Vanishing)问题;

输入标准化对应样本正则化,BN在一定程度上可以替代 Dropout解决过拟合问题。

BN算法:

    在卷积或池化之后,激活函数之前,对每个数据输出进行标准化,方式如下图所示:

    公式很简单,前三行是 Batch内数据归一化(假设一个Batch中有每个数据),同一Batch内数据近似代表了整体训练数据。第四行引入了附加参数 γ 和 β,此二者的取值算法可以参考BN论文,在此不再赘述。

    fine-tuning:用已经训练好的模型,加上自己的数据集,来训练新的模型。即使用别人的模型的前几层,来提取浅层特征,而非完全重新训练模型,从而提高效率。一般新训练模型准确率都会从很低的值开始慢慢上升,但是fine-tuning能够让我们在比较少的迭代次数之后得到一个比较好的效果。

    YOLO模型分为两部分,分类模型和检测模型,前者使用在ImageNet上预训练好的模型,后者在检测数据集上fine-tuning。

    YOLOv1在预训练时采用的是224224的输入(在ImageNet数据集上进行),然后在检测的时候采用448448的输入,这会导致从分类模型切换到检测模型的时候,模型还要适应图像分辨率的改变。

    YOLOv2则将预训练分成两步:先用224224的输入在ImageNet数据集训练分类网络,大概160个epoch(将所有训练数据循环跑160次)后将输入调整到448448,再训练10个epoch(这两步都是在ImageNet数据集上操作)。然后利用预训练得到的模型在检测数据集上fine-tuning。这样训练得到的模型,在检测时用448448的图像作为输入可以顺利检测。

    YOLOv1将输入图像分成77的网格,每个网格预测2个Bounding Box,因此一共有98个Box,同时YOLOv1包含有全连接层,从而能直接预测Bounding Boxes的坐标值,但也导致丢失较多的空间信息,定位不准。

    YOLOv2首先将YOLOv1网络的FC层和最后一个Pooling层去掉,使得最后的卷积层可以有更高分辨率的特征,然后缩减网络,用416416大小的输入代替原来的448448,使得网络输出的特征图有奇数大小的宽和高,进而使得每个特征图在划分单元格(Cell)的时候只有一个中心单元格(Center Cell)。

    为什么希望只有一个中心单元格呢?由于中的物体都倾向于出现在的中心位置,特别是比较大的物体,所以有一个单元格单独位于物体中心的位置用于预测这些物体。

    YOLOv2通过引入Anchor Boxes,通过预测Anchor Box的偏移值与置信度,而不是直接预测坐标值。YOLOv2的卷积层采用32这个值来下采样,所以通过选择416416用作输入尺寸最终能输出一个1313的特征图。若采用FSRCNN中的方式,每个Cell可预测出9个Anchor Box,共13139=1521个(YOLOv2确定Anchor Boxes的方法见是维度聚类,每个Cell选择5个Anchor Box)。

    在FSRCNN中,以一个5139大小的特征图为例,其可以看做一个尺度为5139的图像,对于该图像的每一个位置,考虑9个可能的候选窗口:3种面积3种比例。这些候选窗口称为Anchor Boxes。下图示出的是5139个Anchor Box中心,以及9种Anchor Box示例。

YOLOv1和YOLOv2特征图数据结构:

YOLOv1:SS (B5 + C) => 77(25+20)

    其中B对应Box数量,5对应边界框的定位信息(w,y,w,h)和边界框置信度(Confidience)。分辨率是77,每个Cell预测2个Box,这2个Box共用1套条件类别概率(120)。

YOLOv2:SSK (5 + C) => 13139(5+20)

    分辨率提升至1313,对小目标适应性更好,借鉴了FSRCNN的思想,每个Cell对应K个Anchor box(YOLOv2中K=5),每个Anchor box对应1组条件类别概率(120)。

    聚类:聚类是指事先没有“标签”而通过某种成团分析找出事物之间存在聚集性原因的过程。即在没有划分类别的情况下,根据数据相似度进行样本分组。

    在FSR-CNN中Anchor Box的大小和比例是按经验设定的,然后网络会在训练过程中调整Anchor Box的尺寸,最终得到准确的Anchor Boxes。若一开始就选择了更好的、更有代表性的先验Anchor Boxes,那么网络就更容易学到准确的预测位置。

    YOLOv2使用K-means聚类方法类训练Bounding Boxes,可以自动找到更好的宽高维度的值用于一开始的初始化。传统的K-means聚类方法使用的是欧氏距离函数,意味着较大的Anchor Boxes会比较小的Anchor Boxes产生更多的错误,聚类结果可能会偏离。由于聚类目的是确定更精准的初始Anchor Box参数,即提高IOU值,这应与Box大小无关,因此YOLOv2采用IOU值为评判标准,即K-means 采用的距离函数(度量标准) 为:

d(box,centroid) = 1 - IOU(box,centroid)

    如下图,左边是聚类的簇个数和IOU的关系,两条曲线分别代表两个不同的数据集。分析聚类结果并权衡模型复杂度与IOU值后,YOLOv2选择K=5,即选择了5种大小的Box 维度来进行定位预测。

    其中紫色和灰色也是分别表示两个不同的数据集,可以看出其基本形状是类似的。更重要的是,可以看出聚类的结果和手动设置的Anchor Box位置和大小差别显著——结果中扁长的框较少,而瘦高的框更多(更符合行人的特征)。

    YOLOv2采用的5种Anchor的Avg IOU是61,而采用9种Anchor Boxes的Faster RCNN的Avg IOU是609,也就是说本文仅选取5种box就能达到Faster RCNN的9中box的效果。选择值为9的时候,AVG IOU更有显著提高。说明K-means方法的生成的boxes更具有代表性。

    直接对Bounding Boxes求回归会导致模型不稳定,其中心点可能会出现在图像任何位置,有可能导致回归过程震荡,甚至无法收敛,尤其是在最开始的几次迭代的时候。大多数不稳定因素产生自预测Bounding Box的中心坐标(x,y)位置的时候。

    YOLOv2的网络在特征图(1313)的每一个单元格中预测出5个Bounding Boxes(对应5个Anchor Boxes),每个Bounding Box预测出5个值(tx,ty,tw,th,t0),其中前4个是坐标偏移值,t0是置信度结果(类似YOLOv1中的边界框置信度Confidence)。YOLOv2借鉴了如下的预测方式,即当Anchor Box的中心坐标和宽高分别是(xa,ya)和(wa,wh)时,Bounding Box坐标的预测偏移值(tx,ty,tw,th)与其坐标宽高(x,y,w,h)的关系如下:                         

tx = (x-xa)/wa

ty= (y-ya)/ha

tw = log(w/wa)

th = log(h/ha)

    基于这种思想,YOLOv2在预测Bounding Box的位置参数时采用了如下强约束方法:

    上图中,黑色虚线框是Anchor Box,蓝色矩形框就是预测的Bounding Box结果,预测出的Bounding Box的坐标和宽高为(bx,by)和(bw,bh),计算方式如图中所示,其中:对每个Bounding Box预测出5个值(tx,ty,tw,th,t0),Cell与图像左上角的横纵坐标距离为(cx,cy),σ定义为sigmoid激活函数(将函数值约束到[0,1]),该Cell对应的Anchor Box对应的宽高为(pw,ph)。

    简而言之,(bx,by)就是(cx,cy)这个Cell附近的Anchor Box针对预测值(tx,ty)得到的Bounding Box的坐标预测结果,同时可以发现这种方式对于较远距离的Bounding Box预测值(tx,ty)能够得到很大的限制。

    YOLOv2通过添加一个转移层,把高分辨率的浅层特征连接到低分辨率的深层特征(把特征堆积在不同Channel中)而后进行融合和检测。具体操作是先获取前层的2626的特征图,将其同最后输出的1313的特征图进行连接,而后输入检测器进行检测(检测器的FC层起到了全局特征融合的作用),以此来提高对小目标的检测能力。    

    为了适应不同尺度下的检测任务,YOLOv2在训练网络时,其在检测数据集上fine-tuning时候采用的输入图像的size是动态变化的。具体来讲,每训练10个Batch,网络就会随机选择另一种size的输入图像。因为YOLOv2用到了参数是32的下采样,因此也采用32的倍数作为输入的size,即采用{320,352,…,608}的输入尺寸(网络会自动改变尺寸,并继续训练的过程)。

这一策略让网络在不同的输入尺寸上都能达到较好的预测效果,使同一网络能在不同分辨率上进行检测。输入较大时,检测速度较慢,输入较小时,检测速度较快,总体上提高了准确率,因此多尺度训练算是在准确率和速度上达到一个平衡。

    上表反映的是在检测时,不同大小的输入情况下的YOLOv2和其他目标检测算法的对比。可以看出通过多尺度训练的检测模型,在测试的时候,输入图像在尺寸变化范围较大的情况下也能取得mAP和FPS的平衡。

    YOLOv1采用的训练网络是GoogleNet,YOLOv2采用了新的分类网络Darknet-19作为基础网络,它使用了较多的33卷积核,并把11的卷积核置于33的卷积核之间,用来压缩特征,同时在每一次池化操作后把通道(Channels)数翻倍(借鉴VGG网络)。

    YOLOv1采用的GooleNet包含24个卷积层和2个全连接层,而Darknet-19包含19个卷积层和5个最大池化层(Max Pooling Layers),后面添加Average Pooling层(代替v1中FC层),而Softmax分类器作为激活被用在网络最后一层,用来进行分类和归一化。

    在ImageNet数据集上进行预训练,主要分两步(采用随机梯度下降法):

输入图像大小是224224,初始学习率(Learning Rate)为01,训练160个epoch,权值衰减(Weight Decay)为00005,动量(Momentum)为09,同时在训练时采用标准的数据增强(Data Augmentation)方式如随机裁剪、旋转以及色度、亮度的调整。

fine-tuning:第1步结束后,改用448448输入(高分辨率模型),学习率改为0001,训练10个epoch,其他参数不变。结果表明:fine-tuning后的top-1准确率为765%,top-5准确率为933%,若按照原来的训练方式,Darknet-19的top-1准确率是729%,top-5准确率为912%。可以看出,两步分别从网络结构和训练方式方面入手提高了网络分类准确率。

    预训练之后,开始基于检测的数据集再进行fine-tuning。    

    首先,先把最后一个卷积层去掉,然后添加3个33的卷积层,每个卷积层有1024个卷积核,并且后面都连接一个11的卷积层,卷积核个数(特征维度)根据需要检测的类数量决定。(比如对VOC数据,每个Cell需要预测5个Boungding Box,每个Bounding Box有4个坐标值、1个置信度值和20个条件类别概率值,所以每个单元格对应125个数据,此时卷积核个数应该取125。)

    然后,将最后一个33512的卷积层和倒数第2个卷积层相连(提取细粒度特征),最后在检测数据集上fine-tuning预训练模型160个epoch,学习率采用0001,并且在第60和90个epoch的时候将学习率除以10,权值衰减、动量和数据增强方法与预训练相同。

    YOLO9000通过结合分类和检测数据集,使得训练得到的模型可以检测约9000类物体,利用带标注的分类数据集量比较大的特点,解决了带标注的检测数据集量比较少的问题。具体方法是:一方面采用WordTree融合数据集,另一方面联合训练分类数据集和检测数据集。

    分类数据集和检测数据集存在较大差别:检测数据集只有粗粒度的标记信息,如“猫”、“狗”,而分类数据集的标签信息则更细粒度,更丰富。比如“狗”就包括“哈士奇”、“金毛狗”等等。所以如果想同时在检测数据集与分类数据集上进行训练,那么就要用一种一致性的方法融合这些标签信息。

    用于分类的方法,常用Softmax(比如v2),Softmax意味着分类的类别之间要互相独立的,而ImageNet和COCO这两种数据集之间的分类信息不相互独立(ImageNet对应分类有9000种,而COCO仅提供80种目标检测),所以使用一种多标签模型来混合数据集,即假定一张可以有多个标签,并且不要求标签之间独立,而后进行Softmax分类。

    由于ImageNet的类别是从WordNet选取的,作者采用以下策略重建了一个树形结构(称为WordTree):

遍历ImageNet的标签,然后在WordNet中寻找该标签到根节点(所有的根节点为实体对象)的路径;

如果路径只有一条,将该路径直接加入到WordTree结构中;

否则,从可选路径中选择一条最短路径,加入到WordTree结构中。

WordTree的作用就在于将两种数据集按照层级进行结合。

    如此,在WordTree的某个节点上就可以计算该节点的一些条件概率值,比如在terrier这个节点,可以得到如下条件概率值:

    进而,如果要预测此节点的概率(即中目标是Norfolk terrier的概率),可以根据WordTree将该节点到根节点的条件概率依次相乘得到,如下式:

其中:        

    YOLO9000在WordTree1k(用有1000类别的ImageNet1k创建)上训练了Darknet-19模型。为了创建WordTree1k作者添加了很多中间节点(中间词汇),把标签由1000扩展到1369。

    训练过程中GroundTruth标签要顺着向根节点的路径传播:为了计算条件概率,模型预测了一个包含1369个元素的向量,而且基于所有“同义词集”计算Softmax,其中“同义词集”是同一概念下的所属词。

    现在一张是多标记的,标记之间不需要相互独立。在训练过程中,如果有一个的标签是“Norfolk terrier”,那么这个还会获得“狗”以及“哺乳动物”等标签。

    如上图所示,之前的ImageNet分类是使用一个大Softmax进行分类,而现在WordTree只需要对同一概念下的同义词进行Softmax分类。然后作者分别两个数据集上用相同训练方法训练Darknet-19模型,最后在ImageNet数据集上的top-1准确率为729%,top-5准确率为912%;在WordTree数据集上的top-1准确率为719%,top-5准确率为904%。

    这种方法的好处是有“退而求其次”的余地:在对未知或者新的物体进行分类时,性能损失更低,比如看到一个狗的照片,但不知道是哪种种类的狗,那么就预测其为“狗”。

    以上是构造WordTree的原理,下图是融合COCO数据集和ImageNet数据集以及生成它们的WordTree的示意图(用颜色区分了COCO数据集和ImageNet数据集的标签节点), 混合后的数据集对应的WordTree有9418个类。另一方面,由于ImageNet数据集太大,YOLO9000为了平衡两个数据集之间的数据量,通过过采样(Oversampling)COCO数据集中的数据,使COCO数据集与ImageNet数据集之间的数据量比例达到1:4。

    对YOLO9000进行评估,发现其mAP比DPM高,而且YOLO有更多先进的特征,YOLO9000是用部分监督的方式在不同训练集上进行训练,同时还能检测9000个物体类别,并保证实时运行。虽然YOLO9000对动物的识别性能很好,但是对衣服或者装备的识别性能不是很好(这跟数据集的数据组成有关)。

    YOLO9000的网络结构和YOLOv2类似,区别是每个单元格只采用3个Anchor Boxes。

    YOLO9000提出了一种在分类数据集和检测数据集上联合训练的机制,即使用检测数据集(COCO)的去学习检测相关的信息即查找对象(例如预测边界框坐标、边界框是否包含目标及目标属于各个类别的概率),使用仅有类别标签的分类数据集(ImageNet)中的去扩展检测到的对象的可识别种类。

    具体方法是:当网络遇到一个来自检测数据集的与标记信息,就把这些数据用完整的损失函数(v2和9000均沿用了v1网络的损失函数)反向传播,而当网络遇到一个来自分类数据集的和分类标记信息,只用代表分类误差部分的损失函数反向传播这个。

    YOLO v2 在大尺寸上能够实现高精度,在小尺寸上运行更快,可以说在速度和精度上达到了平衡,具体性能表现如下所示。

coco数据集

voc2012数据集

网盘链接:http://panbaiducom/wap/linkuk=3120978142&shareid=3175293915&third=0

你好

以上就是您要的书的网盘地址 您可以复制链接进行下载。

如果链接失效请及时追问,并直接留下邮箱地址,只留数字就可以了。我会及时给您发送。

满意采纳哦!

香奈儿255可以说是经典中的经典了,一直是香奈儿最火的一款,这么多年了还是很流行。下面我来教教大家香奈儿255包尺寸怎么选?一起来看看chanel255包尺寸对照表。

香奈儿255尺寸怎么选

也许有些人一生中的梦想就是拥有一个香奈儿的255,也许有些人已经把这个梦想实现了很多次,也不排除会有些人觉得它们的款式太传统甚至有点过时。说到我自己呢,小时候已经很崇拜Coco Chanel,所以多年前已经是香奈儿的忠实拥护者,喜欢她的理由我也不多说了,只看她在时尚界的历史发展中造成的影响也就足以让我爱她一辈子。Coco Chanel创作255的灵感源自她自己的身世和经历,她本人就是255的muse,为什么这样说呢因为255的每一个部分都和Coco有着密切的关系。香奈儿255尺寸比较多,大家不知道选哪款可以参考明星街拍。chane255的隆廓已经深深的留在无数女性的印象里。

香奈儿255尺寸对照表

Mini 95 ×18 × 45 cm

特小 125 × 25 × 6 cm

小号 13 × 17 × 6 cm

中号 145 × 235 × 65 cm

经典款 16 × 255 × 75 cm

大号 20 × 30 × 10 cm

特大号 23 × 34 × 10 cm

香奈儿255设计理念

金色链带、菱格纹香奈儿手袋的经典传奇早已享誉全球,并继续深得女性宠爱。它是女人们配饰品中的明星之选,完美融合了视觉魅力和实用性,以及创新和传统,半个世纪以来已成为精品的象征。1955年2月,COCO CHANEL女士推出了一款配有金属链条的双层翻盖可闭合方形包。它成为了人们所熟知的255。很多年以来,这款包在原设计上出现了很多的变化,包括皮革或织物的面料,金属链条或与皮革相互交织缠绕的链条,双层翻盖或单层翻盖,以及**方形锁扣或双C图形锁口。Chanel经典款,除了最受欢迎的小羊皮面料,还有很多材质可供选择。当中包括鱼子酱压花小牛皮、漆皮牛皮、鳄鱼皮和蟒蛇皮,颜色绚烂,有灰色、沙褐色、青瓷、午夜蓝、棕色和其他季节流行色彩。小羊皮的通常比小牛皮的要贵一些,小羊皮非常柔软,就像婴儿的皮肤一样,时不时的可以给它按摩一下!