xiaohai2008的个人博客分享 http://blog.sciencenet.cn/u/xiaohai2008

留言板

facelist

您需要登录后才可以留言 登录 | 注册


IP: 183.208.4.*   [29]吴小兰   2018-4-4 09:22
尊敬的老师:
  您好!
  打扰您了,我是南京理工大学博士生吴小兰,前期我们根据科学网博主的“研究方向”进行了博主学科跨度的一些研究,现想通过博主的问卷来对结果进行检验,非常希望您在百忙之中抽空填写一下(共9小题,约2分钟时间)问卷地址为 https://www.wjx.cn/jq/21238770.aspx ,本人将不甚感激。另外,我们郑重承诺:尊重隐私,所收集数据只用于学术研究,不外泄或作商业用途。
      吴小兰,南京理工大学
      2018年4月4日
IP: 202.116.70.*   [28]胡国华   2013-11-13 11:21
昨天弄明白了样例说明中的数据组织方式,然后用自己的数据测试了下代码,发现:
     1 多类输出结果的精度挺好。
     2 多输出的因变量之间能够实现和为1的约束,但是不保证0-1输出,可能出现负值等。
     3 网格搜索过程十分费时,且更样本数量有很大关系,300个样本大约需要10分钟网格搜索,1800个样本10个小时没有搜索完成。
     4 预测输出值部分,需要训练数据的参与,训练样本越大,预测输出计算过程时间越长。
     5 预测输出值部分,对内存要求较高,自变量x的数量超过50000会out of memory,需要分割计算。
        同时训练样本数量大(比如超过1500个)的时候,同样会out of memory。

测试数据(训练样本:1800*7,1800*4,待预测样本:100000*7)
我的回复(2013-11-14 08:24):如果希望训练大样本,建议用64位的matlab运行,就不会出现out of memory的问题

另外一种途径是,我正在用JAVA重写相应代码,写完后将传上来,JAVA版的应该会更快一些
IP: 202.116.70.*   [27]胡国华   2013-11-12 21:15
徐老师,您好,我跟lcx200267305有同样的疑问。
对于一个多输入多输出回归,假设有k个训练样本(m维输入,n维输出),设计成 trnx(矩阵k*m),trny(矩阵k*n)是不是更加直观,还是我的理解有误? 同时对training_number_vector(An m by 1 vector of the number of training instances for each task)这个参数也不是很明白,不知老师您简单说明一下。
IP: 218.192.21.*   [26]lcx200267305   2013-10-17 18:24
谢谢老师,我自己先好好研究一下,有问题再请教老师!
我的回复(2013-10-18 08:46):好的
IP: 218.192.21.*   [25]lcx200267305   2013-10-17 12:42
徐老师,在readme文件中要求training_label_vector是一个n*1的矩阵,但是做多任务对于每一个样本不是要预测多个指标吗,利用MTLS-SVM该怎样进行多任务回归预测。假如对每个样本我们要预测身高、体重和臂展三个指标该怎么做,不是简单把training_label_vector写成一个n*3的矩阵吧,期待您的回复,谢谢!
我的回复(2013-10-17 13:53):如果有多个输出的话,比如,x, y1, y2, y3
training_label_vector为
[y1; y2; y3]
training_instance_matrix为
[x; x; x]

请仔细看一下corn.mat文件,这个示例文件其实是一个多输出问题。
IP: 218.192.21.*   [24]lcx200267305   2013-10-17 12:04
嗯。谢谢老师,这段时间我认真学习学习MTLS-SVM。
IP: 113.105.10.*   [23]lcx200267305   2013-10-9 20:01
徐老师,您好,我这段时间在做多任务方面的东西,对机器学习比较陌生,看到您的multi-task  least-squares support vector machines ,很感兴趣,也下载了您的MTLS-SVM程序包,自己对编程不熟,不知道怎样应用去实验,想请教您能不能给我写一个简单的、应用您的MTLS-SVM回归的多任务实例程序,帮助我理解和学习,还有一个问题请教,就是一般的lssvm虽然能做多输出,但是它对每个输出量还是单独建模计算的是吗,只是用多输出形式给出,本质还是单个的输出是吗?我的邮箱1531219714@qq.com,期待着您的回复,谢谢!

謝謝
我的回复(2013-10-9 22:05):MTLS-SVM工具箱里有一个readme文件,应该比较好理解如何使用该工具箱

你对传统的LS-SVM的理解是正确的。
IP: 1.83.78.*   [22]李蕾   2013-9-16 11:34
您好,我是南京理工大学经济管理学院管理科学与工程专业的一名博士生,最近想做一份用户打标签行为的调研(就是您在发表博文时会让您给博文添加标签),但是我缺少研究数据,恳请您在百忙中抽空帮我填写一份问卷,问卷大约需要您5分钟的时间,非常感谢您!!
      问卷地址是:http://www.sojump.com/jq/2709468.aspx 将此链接复制进浏览器的地址栏,然后按回车键即可,非常感谢您!!!
IP: 60.247.91.*   [21]ylqfp   2013-9-9 13:38
好的,多谢徐老师。主要是HMM-LDA和变分推导过程
我的回复(2013-9-11 17:57):HMM-LDA的Gibbs采样算法应该已经贴出来了,见http://blog.sciencenet.cn/blog-611051-532360.html,不过是一个简版的,但它的变分推导我还未打算去推。
IP: 168.160.24.*   [20]徐硕   2013-9-9 10:31
一直都太忙了,你想了解哪一个?
我看一下,如果已经推导完成了的话,我放上来
IP: 60.247.91.*   [19]ylqfp   2013-9-9 10:08
徐老师好,请问lda其他变种的推导过程什么时候放上来啊?翘首企盼了好几个月啦
IP: 140.116.190.*   [18]b29574185   2013-7-8 20:41
徐老師您好,我閱讀過您的multi-output least-square support vector regression machines,對其內容相當有興趣,
但我自己對程式的編輯並不熟悉,不知能否將該程式碼寄給我,做為研究用途?
謝謝
我的回复(2013-7-31 14:16):Matlab工具箱程序见:http://blog.sciencenet.cn/home.php?mod=space&uid=611051&do=blog&id=712891
IP: 122.225.72.*   [17]袁顺波   2013-3-29 11:11
尊敬的科学网博客用户:
您好,诚恳地邀请您参与“科学网博客用户持续使用的影响因素”问卷调查,网址是:
http://www.sojump.com/jq/2250398.aspx,本次调查需要3-5分钟的时间,非常感谢!
IP: 122.225.72.*   [16]袁顺波   2013-3-29 11:10
尊敬的科学网博客用户:
您好,诚恳地邀请您参与“科学网博客用户持续使用的影响因素”问卷调查,网址是:
http://www.sojump.com/jq/2250398.aspx,本次调查需要3-5分钟的时间,非常感谢!
IP: 108.49.139.*   [15]何毓琦   2013-3-18 18:33
Please read my public announcement first.
我的回复(2013-3-18 19:14):Sorry for disturbing you.
IP: 210.98.50.*   [14]徐硕   2013-3-8 22:51
谢谢你的支持
IP: 159.226.21.*   [13]s2jackson   2013-3-8 20:07
另外再支持一下。。。。
IP: 159.226.21.*   [12]s2jackson   2013-3-8 20:06
期待徐老师LDA-COL,BTM等具体推导公式出炉。
另外徐老师对variational inference有什么看法?因为有些model用的variational inference的方法推导的,期待徐老师出些这个方面的解释文档或者个人心得。
IP: 133.5.19.*   [11]徐行   2012-8-6 20:13
哦,非常感谢您能在繁忙的工作科研之余的回复。真的很感激!看您贴出来的针对这些不同的topic model的推导,采用gibs sampling的方法,思路流程大致是相同的,我自己也试着私下推导推导,再和您的对照。 我是做图像方面的, 这些模型的程序实现的话, 我看D.Blei和相关学者提供的都是c/c++相关的open source, 我想冒昧的问下, 给予topic model的建模,一般用什么工具进行试验验证呢? 如果采用matlab+c(model的算法用c,matlab做数据准备和后续处理), 比较耗时么? 因为以前用matlab实现PLSA做image classification/annotation,建模挺耗时的,呵呵! 希望能得到您宝贵的建议,祝好!
我的回复(2012-8-7 08:02):用matlab+c比纯matlab会快多,但仍然会很慢,如果数据量很大的话,我一般用c/c++。
IP: 133.5.11.*   [10]徐行   2012-8-4 18:43
徐老师,您写的Topic Model相关模型的数学推导,十分清晰!真的非常感激!有个问题就是,您在网上提供的数学推导的pdf,是不是有些不全呢?有些model在目录上列出来了(比如HMM-LDA,LDA-COL,BTM等),但是pdf里面没有对应的内容...呵呵。
我的回复(2012-8-6 14:36):的确不全,其他部分我会陆续贴出,有些还没完全推导完成,有些可能还存在一些错误,需要进一步审查。HMM-LDA的相关推导我以前贴出一个简版的,更详细的版本过段时间贴出。

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-10-9 06:43

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部