xiaohai2008的个人博客分享 http://blog.sciencenet.cn/u/xiaohai2008

留言板

facelist

您需要登录后才可以留言 登录 | 注册


IP: 183.208.4.*   [24]吴小兰   2018-4-4 09:22
尊敬的老师:
  您好!
  打扰您了,我是南京理工大学博士生吴小兰,前期我们根据科学网博主的“研究方向”进行了博主学科跨度的一些研究,现想通过博主的问卷来对结果进行检验,非常希望您在百忙之中抽空填写一下(共9小题,约2分钟时间)问卷地址为 https://www.wjx.cn/jq/21238770.aspx ,本人将不甚感激。另外,我们郑重承诺:尊重隐私,所收集数据只用于学术研究,不外泄或作商业用途。
      吴小兰,南京理工大学
      2018年4月4日
IP: 202.116.70.*   [23]胡国华   2013-11-13 11:21
昨天弄明白了样例说明中的数据组织方式,然后用自己的数据测试了下代码,发现:
     1 多类输出结果的精度挺好。
     2 多输出的因变量之间能够实现和为1的约束,但是不保证0-1输出,可能出现负值等。
     3 网格搜索过程十分费时,且更样本数量有很大关系,300个样本大约需要10分钟网格搜索,1800个样本10个小时没有搜索完成。
     4 预测输出值部分,需要训练数据的参与,训练样本越大,预测输出计算过程时间越长。
     5 预测输出值部分,对内存要求较高,自变量x的数量超过50000会out of memory,需要分割计算。
        同时训练样本数量大(比如超过1500个)的时候,同样会out of memory。

测试数据(训练样本:1800*7,1800*4,待预测样本:100000*7)
我的回复(2013-11-14 08:24):如果希望训练大样本,建议用64位的matlab运行,就不会出现out of memory的问题

另外一种途径是,我正在用JAVA重写相应代码,写完后将传上来,JAVA版的应该会更快一些
IP: 202.116.70.*   [22]胡国华   2013-11-12 21:15
徐老师,您好,我跟lcx200267305有同样的疑问。
对于一个多输入多输出回归,假设有k个训练样本(m维输入,n维输出),设计成 trnx(矩阵k*m),trny(矩阵k*n)是不是更加直观,还是我的理解有误? 同时对training_number_vector(An m by 1 vector of the number of training instances for each task)这个参数也不是很明白,不知老师您简单说明一下。
IP: 218.192.21.*   [21]lcx200267305   2013-10-17 18:24
谢谢老师,我自己先好好研究一下,有问题再请教老师!
我的回复(2013-10-18 08:46):好的
IP: 218.192.21.*   [20]lcx200267305   2013-10-17 12:42
徐老师,在readme文件中要求training_label_vector是一个n*1的矩阵,但是做多任务对于每一个样本不是要预测多个指标吗,利用MTLS-SVM该怎样进行多任务回归预测。假如对每个样本我们要预测身高、体重和臂展三个指标该怎么做,不是简单把training_label_vector写成一个n*3的矩阵吧,期待您的回复,谢谢!
我的回复(2013-10-17 13:53):如果有多个输出的话,比如,x, y1, y2, y3
training_label_vector为
[y1; y2; y3]
training_instance_matrix为
[x; x; x]

请仔细看一下corn.mat文件,这个示例文件其实是一个多输出问题。
IP: 1.83.78.*   [19]李蕾   2013-9-16 11:34
您好,我是南京理工大学经济管理学院管理科学与工程专业的一名博士生,最近想做一份用户打标签行为的调研(就是您在发表博文时会让您给博文添加标签),但是我缺少研究数据,恳请您在百忙中抽空帮我填写一份问卷,问卷大约需要您5分钟的时间,非常感谢您!!
      问卷地址是:http://www.sojump.com/jq/2709468.aspx 将此链接复制进浏览器的地址栏,然后按回车键即可,非常感谢您!!!
IP: 60.247.91.*   [18]ylqfp   2013-9-9 13:38
好的,多谢徐老师。主要是HMM-LDA和变分推导过程
我的回复(2013-9-11 17:57):HMM-LDA的Gibbs采样算法应该已经贴出来了,见http://blog.sciencenet.cn/blog-611051-532360.html,不过是一个简版的,但它的变分推导我还未打算去推。
IP: 168.160.24.*   [17]徐硕   2013-9-9 10:31
一直都太忙了,你想了解哪一个?
我看一下,如果已经推导完成了的话,我放上来
IP: 60.247.91.*   [16]ylqfp   2013-9-9 10:08
徐老师好,请问lda其他变种的推导过程什么时候放上来啊?翘首企盼了好几个月啦
IP: 122.225.72.*   [15]袁顺波   2013-3-29 11:11
尊敬的科学网博客用户:
您好,诚恳地邀请您参与“科学网博客用户持续使用的影响因素”问卷调查,网址是:
http://www.sojump.com/jq/2250398.aspx,本次调查需要3-5分钟的时间,非常感谢!
IP: 122.225.72.*   [14]袁顺波   2013-3-29 11:10
尊敬的科学网博客用户:
您好,诚恳地邀请您参与“科学网博客用户持续使用的影响因素”问卷调查,网址是:
http://www.sojump.com/jq/2250398.aspx,本次调查需要3-5分钟的时间,非常感谢!
IP: 108.49.139.*   [13]何毓琦   2013-3-18 18:33
Please read my public announcement first.
我的回复(2013-3-18 19:14):Sorry for disturbing you.
IP: 210.98.50.*   [12]徐硕   2013-3-8 22:51
谢谢你的支持
IP: 133.5.19.*   [11]徐行   2012-8-6 20:13
哦,非常感谢您能在繁忙的工作科研之余的回复。真的很感激!看您贴出来的针对这些不同的topic model的推导,采用gibs sampling的方法,思路流程大致是相同的,我自己也试着私下推导推导,再和您的对照。 我是做图像方面的, 这些模型的程序实现的话, 我看D.Blei和相关学者提供的都是c/c++相关的open source, 我想冒昧的问下, 给予topic model的建模,一般用什么工具进行试验验证呢? 如果采用matlab+c(model的算法用c,matlab做数据准备和后续处理), 比较耗时么? 因为以前用matlab实现PLSA做image classification/annotation,建模挺耗时的,呵呵! 希望能得到您宝贵的建议,祝好!
IP: 133.5.11.*   [10]徐行   2012-8-4 18:43
徐老师,您写的Topic Model相关模型的数学推导,十分清晰!真的非常感激!有个问题就是,您在网上提供的数学推导的pdf,是不是有些不全呢?有些model在目录上列出来了(比如HMM-LDA,LDA-COL,BTM等),但是pdf里面没有对应的内容...呵呵。
IP: 122.64.188.*   [9]tonyqi1214   2012-6-10 13:14
好的,谢谢。
IP: 122.64.179.*   [8]tonyqi1214   2012-6-8 21:44
GibbsLDA++-0.2 ,网上大部分都是这个。
我的回复(2012-6-9 10:11):GibbsLDA++-0.2我也完全读完了,在Gibbs Sampling方面应该没有问题,主要是它前面已经减过了,就不用再减1了
个人觉得唯一有问题的是inference那块,你可以仔细看一下
IP: 202.118.253.*   [7]tonyqi1214   2012-6-8 16:22
老师看了您写的LDAGibbs,感觉您写的很好。我在网上找了一个实现您这个的程序,他里面求Eqs. (2)这个概率的时候分子分母都没有减1,是不是他的程序有问题,我对Eqs. (2)这个公式的最后一个推导不太明白。
我的回复(2012-6-8 18:20):你看的是哪个程序的实现?
IP: 168.160.25.*   [6]王新   2012-3-28 22:20
老师,我是王新。。我每次给您回邮件都被退信,错误是bad address syntax。。。是您的gmail邮箱啊。。。
IP: 61.187.54.*   [5]李本先   2012-1-11 21:28
感谢加我

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-7-12 15:44

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部