SoftMax regression
最终收敛到这个结果,巨爽。
smaple 0: 0.983690,0.004888,0.011422,likelyhood:-0.016445
smaple 1: 0.940236,0.047957,0.011807,likelyhood:-0.061625
smaple 2: 0.818187,0.001651,0.180162,likelyhood:-0.200665
smaple 3: 0.000187,0.999813,0.000000,likelyhood:-0.000187
smaple 4: 0.007913,0.992087,0.000000,likelyhood:-0.007945
smaple 5: 0.001585,0.998415,0.000000,likelyhood:-0.001587
smaple 6: 0.020159,0.000001,0.979840,likelyhood:-0.020366
smaple 7: 0.018230,0.000000,0.981770,likelyhood:-0.018398
smaple 8: 0.025072,0.000000,0.974928,likelyhood:-0.025392
- #include "stdio.h"
- #include "math.h"
- double matrix[9][4]={{1,47,76,24}, //include x0=1
- {1,46,77,23},
- {1,48,74,22},
- {1,34,76,21},
- {1,35,75,24},
- {1,34,77,25},
- {1,55,76,21},
- {1,56,74,22},
- {1,55,72,22},
- };
- double result[]={1,
- 1,
- 1,
- 2,
- 2,
- 2,
- 3,
- 3,
- 3,};
- double theta[2][4]={
- {0.3,0.3,0.01,0.01},
- {0.5,0.5,0.01,0.01}}; // include theta0
- double function_g(double x)
- {
- double ex = pow(2.718281828,x);
- return ex/(1+ex);
- }
- double function_e(double x)
- {
- return pow(2.718281828,x);
- }
- int main(void)
- {
- double likelyhood = 0.0;
- for(int j = 0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- double ltheta = 0.0;
- if(result[j]==1)
- ltheta = log(p1);
- else if(result[j]==2)
- ltheta = log(p2);
- else if(result[j]==3)
- ltheta = log(p3);
- else
- {}
- printf("smaple %d: %f,%f,%f,likelyhood:%f\n",j,p1,p2,p3,ltheta);
- }
- for(int i =0 ;i<1000;++i)
- {
- for(int j=0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- for(int m = 0; m<4; ++m)
- {
- if(result[j]==1)
- {
- theta[0][m] = theta[0][m] + 0.001*(1-p1)*matrix[j][m];
- }
- else
- {
- theta[0][m] = theta[0][m] + 0.001*(-p1)*matrix[j][m];
- }
- if(result[j]==2)
- {
- theta[1][m] = theta[1][m] + 0.001*(1-p2)*matrix[j][m];
- }
- else
- {
- theta[1][m] = theta[1][m] + 0.001*(-p2)*matrix[j][m];
- }
- }
- }
- double likelyhood = 0.0;
- for(int j = 0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- double ltheta = 0.0;
- if(result[j]==1)
- ltheta = log(p1);
- else if(result[j]==2)
- ltheta = log(p2);
- else if(result[j]==3)
- ltheta = log(p3);
- else
- {}
- printf("smaple %d: %f,%f,%f,likelyhood:%f\n",j,p1,p2,p3,ltheta);
- }
- }
- return 0;
- }
SoftMax regression的更多相关文章
- Softmax回归(Softmax Regression)
转载请注明出处:http://www.cnblogs.com/BYRans/ 多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件 ...
- (六)6.10 Neurons Networks implements of softmax regression
softmax可以看做只有输入和输出的Neurons Networks,如下图: 其参数数量为k*(n+1) ,但在本实现中没有加入截距项,所以参数为k*n的矩阵. 对损失函数J(θ)的形式有: 算法 ...
- Deep Learning 学习随记(三)续 Softmax regression练习
上一篇讲的Softmax regression,当时时间不够,没把练习做完.这几天学车有点累,又特别想动动手自己写写matlab代码 所以等到了现在,这篇文章就当做上一篇的续吧. 回顾: 上一篇最后给 ...
- UFLDL实验报告1: Softmax Regression
PS:这些是今年4月份,跟斯坦福UFLDL教程时的实验报告,当时就应该好好整理的…留到现在好凌乱了 Softmax Regression实验报告 1.Softmax Regression实验描述 So ...
- ufldl学习笔记和编程作业:Softmax Regression(softmax回报)
ufldl学习笔记与编程作业:Softmax Regression(softmax回归) ufldl出了新教程.感觉比之前的好,从基础讲起.系统清晰,又有编程实践. 在deep learning高质量 ...
- 学习笔记TF024:TensorFlow实现Softmax Regression(回归)识别手写数字
TensorFlow实现Softmax Regression(回归)识别手写数字.MNIST(Mixed National Institute of Standards and Technology ...
- TensorFlow实战之Softmax Regression识别手写数字
关于本文说明,本人原博客地址位于http://blog.csdn.net/qq_37608890,本文来自笔者于2018年02月21日 23:10:04所撰写内容(http://blog.c ...
- R︱Softmax Regression建模 (MNIST 手写体识别和文档多分类应用)
本文转载自经管之家论坛, R语言中的Softmax Regression建模 (MNIST 手写体识别和文档多分类应用) R中的softmaxreg包,发自2016-09-09,链接:https:// ...
- TensorFlow(2)Softmax Regression
Softmax Regression Chapter Basics generate random Tensors Three usual activation function in Neural ...
- 逻辑回归与神经网络还有Softmax regression的关系与区别
本文讨论的关键词:Logistic Regression(逻辑回归).Neural Networks(神经网络) 之前在学习LR和NN的时候,一直对它们独立学习思考,就简单当做是机器学习中的两个不同的 ...
随机推荐
- SKSpriteNode对象初始化在iPhone 6 plus中显示不正确的分析及解决
一个SpriteKit项目在其他设备上运行都无问题(无论是真机或是模拟器),但是在iPhone6 Plus上会出现精灵对象纹理被过度放大的现象: 从上图中大家可以看到无论是主角或是道具球都过大了. 看 ...
- [django]用fastcgi部署
django官方已经开始弃用fastcgi来部署django应用了,作为以前使用过的用户,还是贴一个配置,用来做纪念吧.. 项目下 #! /bin/sh case "$@" in ...
- 在电脑上安装Linux操作系统
1硬件需求 A 一台电脑 B 一个优盘 2软件需求 A制作优盘启动盘的软件PowerISO BLinux操作系统的镜像文件 3安装PowerISO,并使用PowerISO A安装PowerISO B插 ...
- IMDG中的陷阱和问题
陷阱 使用cache API时,一个最重要的问题就是潜在的数据加载.因为IMDG提供的分布式集合也都是实现的JDK的Map.Set等接口,以JDK的Map为例,它接口规定put和remove返回被替换 ...
- 2.关于QT中的Dialog(模态窗口),文件选择器,颜色选择器,字体选择器,消息提示窗口
1 新建一个空项目 A 编写 .pro文件 QT += gui widgets HEADERS += \ MyDialog.h SOURCES += \ MyDialog.cpp B 编写MyD ...
- 随机采样和随机模拟:吉布斯采样Gibbs Sampling实现高斯分布参数推断
http://blog.csdn.net/pipisorry/article/details/51539739 吉布斯采样的实现问题 本文主要说明如何通过吉布斯采样来采样截断多维高斯分布的参数(已知一 ...
- RecyclerView下拉刷新上拉加载(一)
listview下拉刷新上拉加载扩展(一) http://blog.csdn.net/baiyuliang2013/article/details/50252561 listview下拉刷新上拉加载扩 ...
- Android开发学习之路--Notification之初体验
一般当我们收到短信啊,微信啊,或者有些app的提醒,我们都会在通知栏收到一天简单的消息,然后点击消息进入到app里面,其实android中有专门的Notification的类可以完成这个工作,这里就实 ...
- (NO.00004)iOS实现打砖块游戏(十):砖块!更多的砖块!
大熊猫猪·侯佩原创或翻译作品.欢迎转载,转载请注明出处. 如果觉得写的不好请告诉我,如果觉得不错请多多支持点赞.谢谢! hopy ;) 到目前为止游戏基本可玩,但是砖块数量是不变的,等玩家打光所有的砖 ...
- HMAC
Hash-based Message Authentication Code HMAC是IP安全里必须实现的MAC方案,并且其他Internet协议中(如SSL)也使用了HMAC.HMAC已作为NIS ...