jack_孟
第二个参数可取值为下面为可选值:
0 隐藏一个窗口并激活另一个窗口。
1 激活并显示窗口。如果窗口处于最小化或最大化状态,则系统将其还原到原始大小和位置。第一次显示该窗口时,应用程序应指定此标志。
2 激活窗口并将其显示为最小化窗口。
3 激活窗口并将其显示为最大化窗口。
4 按最近的窗口大小和位置显示窗口。活动窗口保持活动状态。
5 激活窗口并按当前的大小和位置显示它。
6 最小化指定的窗口,并按照 Z 顺序激活下一个顶部窗口。
7 将窗口显示为最小化窗口。活动窗口保持活动状态。
8 将窗口显示为当前状态。活动窗口保持活动状态。
9 激活并显示窗口。如果窗口处于最小化或最大化状态,则系统将其还原到原始大小和位置。还原最小化窗口时,应用程序应指定此标志。
10 根据启动应用程序的程序状态来设置显示状态。
dim wsh
set wsh=wscript.createobject("wscript.shell")
wsh.run "notepad.exe c:\test.vbs",1,ture '指定文件打开程序
wsh.run "c:二进制机器人WS评论 \test.doc",1,ture '使用系统默认程序打开文件
set wsh=nothing
WebSocket 前端使用
前端不弃 于 2019-02-28 16:15:26 发布 9383 收藏 58
h5提供了WebSocket网络协议,可以实现浏览器与服务器的双向数据传输
WebSocket(url,protocol)
url:WebSocket API URL,URL之前需要添加ws://或者wss://(类似http://、https://)
protocol:与服务端定义的协议名称相同,协议的参数例如XMPP(Extensible Messaging and Presence Protocol)、SOAP(Simple Object Access Protocol)或者自定义协议。
send(message) 通过已建立的websocket连接发送数据
close(code(numerical),reason(string)) 关闭打开的websocket连接
-WebSocket API是纯事件驱动,建立连接之后,可自动发送状态改变的数据和通知
onopen 当建立websocket连接时触发,只触发一次
onerror 当连接出现错误时触发-因为当触发了onerror之后连接就会触发关闭事件。
onmessage 当服务端发送数据时触发,可多次触发,页面数据展示处理模块-实现轮询
onclose 当websocket连接关闭时触发,只触发一次
readyState: 二进制机器人WS评论 WebSocket连接状态
0 正在与服务端建立WebSocket连接,还没有连接成功
1 连接成功并打开,可以发送消息
2 进行关闭连接的操作,且尚未关闭
3 连接已关闭或不能打开
bufferedAmount:检查传输数据的大小,当客户端传输大量数据时使用避免网络饱和
protocol:在构造函数中使用,protocol参数让服务端知道客户端使用的WebSocket协议。而WebSocket对象的这个属性就是指的最终服务端确定下来的协议名称,可以为空
`
【细粒度】WS-DAN
本文是论文《See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification》的读书笔记. 论文已经在ArXiv上公布.
WS-DAN(Weakly Supervised Data Augmentation Network)是一种用在细粒度分类任务中的模型, 在多个公开数据集上都达到了非常不错的效果; 该模型的创新点包括:
- 双线性注意力池化机制(Bilinear Attention Pooling, 下文简称BAP)
- 类center loss的注意力监督机制
- 基于注意力的数据增强策略
- BAP
- Attention Regularization
- Attention-guided Data Augmentation
- Object Localization 二进制机器人WS评论 and Refinement
BAP(Bilinear Attention Pooling)
BAP是WS-DAN中最基础的模块, 是后续操作的原材料. BAP结构如图1所示
图1: BAP示意图
backbone网络首先产生feature maps和attention maps; 每个attention map都指向物体的特定部位; feature maps和attention maps的element-wise乘积产生局部feature maps, 并通过卷积或者池化来提取局部特征; 所得局部特征可以组成特征矩阵. 具体而言设有 N 个feature maps和 M 个attention maps, 由第 k 个attention map A_ 和feature map 二进制机器人WS评论 F 进行element-wise乘积生成第 k 个part feature map F_ = A_\odot F , 其中 \odot 表示element-wise乘法. 以此类推, 一个feature map和 M 个attention maps进行element-wise乘法, 得到 M 个part feature 二进制机器人WS评论 maps. 这 M 个part feature maps经全局池化(GMP 或GAP), 得到 M 维向量,其中第 k 个元素为 f_ = g\left( F_ \right) , 将这些 M 维向量拼接, 生成 N \times M 维向量. 这些向量组成物体的特征 P
Attention Regularization
c_ \leftarrow c_ + \beta\left( f_ - c_ \right) \\ Attention-guided Data Augmentation
图2: 训练过程
在随机数据增强方法中,背景噪声等干扰因素会影响最终效果. 本文所介绍的数据增强方法则通过BAP来生成attention maps, 这可以更好地过滤掉背景噪声. 对于训练数据,WS-DAN随机选出一张attention map A_ 来指导数据增强过程. A_ 做归一化处理.
A_^ = \frac
Object Localization and Refinement
图3: 测试过程
前面介绍的Attention-guided Data Augmentation可以更准确地预测物体位置. 在测试阶段,backbone模型输出粗粒度识别结果以及attention maps. 在此基础上, WS-DAN可以预测整个物体的位置并且可预测细粒度识别结果. 在测试阶段使用的attention map是 M 个attention map的平均值 A_ = \frac \sum_^> \\ 最终的预测结果是由粗粒度识别结果和细粒度识别结果取平均所得.
【细粒度】WS-DAN
本文是论文《See Better Before Looking Closer: Weakly Supervised Data Augmentation Network for Fine-Grained Visual Classification》的读书笔记. 论文已经在ArXiv上公布.
WS-DAN(Weakly Supervised Data Augmentation Network)是一种用在细粒度分类任务中的模型, 在多个公开数据集上都达到了非常不错的效果; 该模型的创新点包括:
- 双线性注意力池化机制(Bilinear Attention Pooling, 下文简称BAP)
- 类center loss的注意力监督机制
- 基于注意力的数据增强策略
- BAP
- Attention Regularization
- Attention-guided Data Augmentation
- Object Localization and Refinement
BAP(Bilinear Attention Pooling)
BAP是WS-DAN中最基础的模块, 是后续操作的原材料. BAP结构如图1所示
图1: BAP示意图
backbone网络首先产生feature maps和attention maps; 每个attention map都指向物体的特定部位; feature maps和attention maps的element-wise乘积产生局部feature maps, 并通过卷积或者池化来提取局部特征; 所得局部特征可以组成特征矩阵. 具体而言设有 N 个feature maps和 M 个attention maps, 由第 k 个attention map A_ 和feature map F 进行element-wise乘积生成第 k 个part feature map F_ = A_\odot F , 其中 \odot 表示element-wise乘法. 以此类推, 一个feature map和 M 个attention maps进行element-wise乘法, 得到 M 个part feature maps. 这 M 个part feature maps经全局池化(GMP 二进制机器人WS评论 或GAP), 得到 M 维向量,其中第 k 个元素为 f_ = g\left( F_ \right) , 将这些 M 维向量拼接, 生成 N \times M 维向量. 这些向量组成物体的特征 P
Attention Regularization
c_ \leftarrow c_ + \beta\left( 二进制机器人WS评论 f_ - c_ \right) \\ Attention-guided Data Augmentation
图2: 训练过程
在随机数据增强方法中,背景噪声等干扰因素会影响最终效果. 本文所介绍的数据增强方法则通过BAP来生成attention maps, 这可以更好地过滤掉背景噪声. 对于训练数据,WS-DAN随机选出一张attention map A_ 来指导数据增强过程. A_ 做归一化处理.
A_^ = \frac
Object Localization and Refinement
图3: 二进制机器人WS评论 二进制机器人WS评论 测试过程
前面介绍的Attention-guided Data Augmentation可以更准确地预测物体位置. 在测试阶段,backbone模型输出粗粒度识别结果以及attention maps. 在此基础上, WS-DAN可以预测整个物体的位置并且可预测细粒度识别结果. 在测试阶段使用的attention map是 M 个attention map的平均值 A_ = \frac \sum_^> \\ 最终的预测结果是由粗粒度识别结果和细粒度识别结果取平均所得.