接
上一篇
:
https://blog.csdn.net/SPESEG/article/details/104006642
其实有时候,不,经常是我还没有完全明白样例/demo中的流程,就开始了套用,咔咔代入一通,也有很多想当然的想法,都是错误的。
如果完全如所给样例那么简单的话,整个特征可以直接取avg,特征依旧很明显,如下:
x轴是128D特征,y是时间维度frame,由hop_size确定长度
下图即是取avg后的图
下面比较下同一类别的avg features 是否相似?
整体来看确有相似之处,但令人生疑,为何如此相像???就怕不同类别也是这么相似,那就没法玩了。
提取Lau和Dan类别特征,先看tsne图,然后做下query看看效果如何。
PCA后30D,困惑度50
有一定的区分度,但仍有上一篇的可能:因为并没有的分类界限。
困惑度为100时
又加入Dan的一些类别mnw,伪标签为2,PCA后30D,0.86,困惑度100
0 和2本就是一类,1是Lau类别,偏安一隅,也算有点区别
由于颜色问题,将Lau设为3,其他全是Dan类别
大部分的Lau都位于红色框内,再增加点Lau的数据,如下
下面增加点我司的Lau,1000个,如图下,标记为4,【注意:以上只有Lau用的抖音的,Dan是我司的】
假若将3,4合为3,如下
将抖音的Lau数据去掉,如下
如果不用PCA结果如下:差不多一样
我觉得也可试试增加点时长,或者直接用整个时长【不包括抖音的最后附加的声音,也不要刚开始的声音2秒】
个人觉得Lau的时长多了应该与Dan的不同,特征更明显,难道不是吗?拭目以待
遇到一个问题,可能是时长的问题,cudnn出错如下:我怀疑是时长过长了,或者说hop_size有点小,我觉得0.1差不多啊
2020-01-22 19:01:05.967046: W tensorflow/core/kernels/gpu_utils.cc:48] Failed to allocate memory for convolution redzone checking; skipping this check. This is benign and only means that we won't check cudnn for out-of-bounds reads and writes. This message will only be printed once.
2020-01-22 19:02:34.483464: F tensorflow/stream_executor/cuda/cuda_dnn.cc:516] Check failed: cudnnSetTensorNdDescriptor(handle_.get(), elem_type, nd, dims.data(), strides.data()) == CUDNN_STATUS_SUCCESS (9 vs. 0)batch_descriptor: {count: 8231 feature_map_count: 64 spatial: 96 64 value_min: 0.000000 value_max: 0.000000 layout: BatchDepthYX}
Aborted (core dumped)
试试hop_size=0.2,并将时长大于100的置为100.
还在处理中。。。
来了结果,如下,没做PCA,感觉差不多同上
PCA后30D,0.89,困惑度100,如下:就是调整个方向???
【遇到一个问题,不知道怎么指定某个GPU,指定后也不好使,因为我想运行两个或多个脚本,各用一个GPU,之前有写过一篇,但没有深究。这里再补充下】
今天提前回去收拾东西。下班
另外有相关问题可以加入QQ群讨论,不设微信群
QQ群:868373192
语音图像视频深度-学习群
http://blog.sina.com.cn/s/blog_4a1f768601015uoq.html
方法1.cmd中adb kill-server,然后adb -startserver
方法2.方法1不管用,那么在任务管理器中杀死adb.exe,然后重启Eclipse。
上述2中方法,对我没用,最后我将360和360手机管理软件全部关闭,杀掉adb进程,重启eclipse,启动AVD
Failed to allocate memory: 8
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.
在网上看了很多解决办法,其实都不用,直接
ERROR (nnet3-chain-train[5.5.97~1-ec7e5]:AllocateNewRegion():cu-allocator.cc:506) Failed to allocate a memory region of 8161067008 bytes. Possibly this is due to sharing the GPU. Try switching t...
Linux下有个内核参数overcommit_memory,是内存分配策略,程序在启动的时候会先去申请内存。
overcommit_memory此参数决定是否接受超大内存请求的条件。这个参数有三个可能的值:
0:默认设置。内核执行启发式内存过量使用处理,方法是估算可用内存量,并拒绝明显无效的请求。
遗憾的是因为内存是使用启发式而非准确算法计算进行部署,这个设置有时可能会造成系统中的可用内存超载。
1:内核执行无内存过量使用处理。使用这个设置会增大内存超载的可能性,但也可以增强大量使用内存任务..
Android 启动模拟器是出现“Failed to allocate memory: 8”错误,模拟器无法启动,如下图:
原因:设置了不正确AVD显示屏模式,4.0版默认的模式为WVGA800,改成WXGA720后导致不支持。
解决办法:编辑这个AVD,将Skin -> Build in的参数改回默认参数。
欢迎转载并说明转自:http://blog.csdn.net/aminfo/a
如果按照上一篇的想法来做的话,我估计效果不好。
策略:提取视频时长所有音频,特征提取后进入VGG网络,然后将VGG features avg,这样特征如果不明显的话就可能在avg后直接消失了,这种影响还是很大的。我估计最后可能会完全趋于白噪声,这不是扯淡吗?
话不多说,先提取音频文件再说,挨个听真的费劲啊,卧槽,就是怕有脏数据。
先拿抖音干净的数据来玩,主要是因为抖音的视频数据是我挨个下载的...
音频模式识别是机器学习领域的一个重要研究课题,它包括音频标注、声音场景分类、音乐分类、语音情感分类和声音事件检测等任务。近年来,神经网络已被应用于解决音频模式识别问题。然而,以前的系统是建立在特定数据集上的,数据集时长有限。最近,在计算机视觉和自然语言处理中,在大规模数据集上进行预训练的系统已经很好地推广到一些任务上了。然而,在大规模数据集上进行音频模式识别的预训练系统的研究还很有限。本文提出了在大规模音频数据集上训练的预训练音频神经网络(PANN)。
2021-12-13 07:44:25.012505: F tensorflow/stream_executor/cuda/cuda_dnn.cc:533] Check failed: cudnnSetTensorNdDescriptor(handle_.get(), elem_type, nd, dims.data(), strides.data()) == CUDNN_STATUS_SUCCESS