SoftMax regression
最终收敛到这个结果,巨爽。
smaple 0: 0.983690,0.004888,0.011422,likelyhood:-0.016445
smaple 1: 0.940236,0.047957,0.011807,likelyhood:-0.061625
smaple 2: 0.818187,0.001651,0.180162,likelyhood:-0.200665
smaple 3: 0.000187,0.999813,0.000000,likelyhood:-0.000187
smaple 4: 0.007913,0.992087,0.000000,likelyhood:-0.007945
smaple 5: 0.001585,0.998415,0.000000,likelyhood:-0.001587
smaple 6: 0.020159,0.000001,0.979840,likelyhood:-0.020366
smaple 7: 0.018230,0.000000,0.981770,likelyhood:-0.018398
smaple 8: 0.025072,0.000000,0.974928,likelyhood:-0.025392
- #include "stdio.h"
- #include "math.h"
- double matrix[9][4]={{1,47,76,24}, //include x0=1
- {1,46,77,23},
- {1,48,74,22},
- {1,34,76,21},
- {1,35,75,24},
- {1,34,77,25},
- {1,55,76,21},
- {1,56,74,22},
- {1,55,72,22},
- };
- double result[]={1,
- 1,
- 1,
- 2,
- 2,
- 2,
- 3,
- 3,
- 3,};
- double theta[2][4]={
- {0.3,0.3,0.01,0.01},
- {0.5,0.5,0.01,0.01}}; // include theta0
- double function_g(double x)
- {
- double ex = pow(2.718281828,x);
- return ex/(1+ex);
- }
- double function_e(double x)
- {
- return pow(2.718281828,x);
- }
- int main(void)
- {
- double likelyhood = 0.0;
- for(int j = 0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- double ltheta = 0.0;
- if(result[j]==1)
- ltheta = log(p1);
- else if(result[j]==2)
- ltheta = log(p2);
- else if(result[j]==3)
- ltheta = log(p3);
- else
- {}
- printf("smaple %d: %f,%f,%f,likelyhood:%f\n",j,p1,p2,p3,ltheta);
- }
- for(int i =0 ;i<1000;++i)
- {
- for(int j=0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- for(int m = 0; m<4; ++m)
- {
- if(result[j]==1)
- {
- theta[0][m] = theta[0][m] + 0.001*(1-p1)*matrix[j][m];
- }
- else
- {
- theta[0][m] = theta[0][m] + 0.001*(-p1)*matrix[j][m];
- }
- if(result[j]==2)
- {
- theta[1][m] = theta[1][m] + 0.001*(1-p2)*matrix[j][m];
- }
- else
- {
- theta[1][m] = theta[1][m] + 0.001*(-p2)*matrix[j][m];
- }
- }
- }
- double likelyhood = 0.0;
- for(int j = 0;j<9;++j)
- {
- double sum = 1.0; // this is very important, because exp(thetak x)=1
- for(int l = 0;l<2;++l)
- {
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[l][k];
- }
- sum += function_e(xi);
- }
- double xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[0][k];
- }
- double p1 = function_e(xi)/sum;
- xi = 0.0;
- for(int k=0;k<4;++k)
- {
- xi += matrix[j][k]*theta[1][k];
- }
- double p2 = function_e(xi)/sum;
- double p3 = 1-p1-p2;
- double ltheta = 0.0;
- if(result[j]==1)
- ltheta = log(p1);
- else if(result[j]==2)
- ltheta = log(p2);
- else if(result[j]==3)
- ltheta = log(p3);
- else
- {}
- printf("smaple %d: %f,%f,%f,likelyhood:%f\n",j,p1,p2,p3,ltheta);
- }
- }
- return 0;
- }
SoftMax regression的更多相关文章
- Softmax回归(Softmax Regression)
转载请注明出处:http://www.cnblogs.com/BYRans/ 多分类问题 在一个多分类问题中,因变量y有k个取值,即.例如在邮件分类问题中,我们要把邮件分为垃圾邮件.个人邮件.工作邮件 ...
- (六)6.10 Neurons Networks implements of softmax regression
softmax可以看做只有输入和输出的Neurons Networks,如下图: 其参数数量为k*(n+1) ,但在本实现中没有加入截距项,所以参数为k*n的矩阵. 对损失函数J(θ)的形式有: 算法 ...
- Deep Learning 学习随记(三)续 Softmax regression练习
上一篇讲的Softmax regression,当时时间不够,没把练习做完.这几天学车有点累,又特别想动动手自己写写matlab代码 所以等到了现在,这篇文章就当做上一篇的续吧. 回顾: 上一篇最后给 ...
- UFLDL实验报告1: Softmax Regression
PS:这些是今年4月份,跟斯坦福UFLDL教程时的实验报告,当时就应该好好整理的…留到现在好凌乱了 Softmax Regression实验报告 1.Softmax Regression实验描述 So ...
- ufldl学习笔记和编程作业:Softmax Regression(softmax回报)
ufldl学习笔记与编程作业:Softmax Regression(softmax回归) ufldl出了新教程.感觉比之前的好,从基础讲起.系统清晰,又有编程实践. 在deep learning高质量 ...
- 学习笔记TF024:TensorFlow实现Softmax Regression(回归)识别手写数字
TensorFlow实现Softmax Regression(回归)识别手写数字.MNIST(Mixed National Institute of Standards and Technology ...
- TensorFlow实战之Softmax Regression识别手写数字
关于本文说明,本人原博客地址位于http://blog.csdn.net/qq_37608890,本文来自笔者于2018年02月21日 23:10:04所撰写内容(http://blog.c ...
- R︱Softmax Regression建模 (MNIST 手写体识别和文档多分类应用)
本文转载自经管之家论坛, R语言中的Softmax Regression建模 (MNIST 手写体识别和文档多分类应用) R中的softmaxreg包,发自2016-09-09,链接:https:// ...
- TensorFlow(2)Softmax Regression
Softmax Regression Chapter Basics generate random Tensors Three usual activation function in Neural ...
- 逻辑回归与神经网络还有Softmax regression的关系与区别
本文讨论的关键词:Logistic Regression(逻辑回归).Neural Networks(神经网络) 之前在学习LR和NN的时候,一直对它们独立学习思考,就简单当做是机器学习中的两个不同的 ...
随机推荐
- [Centos]openvpn 服务端的安装(easy-rsa3)
VPN在办公和fan墙领域有着广泛的应用, 我们小办公网最近可能会用到,先学学来着 vpn的server需要有公网ip,客户端可以在多种环境下使用 概念 PKI:Public Key Infrast ...
- 安卓Toast自定义及防止重复显示
Toast是安卓系统中,用户误操作时或某功能执行完毕时,对用户的一种提示,它没有焦点,并在一定时间内会消失,但用户连续误操作(如登录时,密码错误)多次时,则会有多个Toast被创建,系统会把这些toa ...
- Servlet中的跳转(redirect和forward)
Forward是通过RequestDispatcher对象的forward(HttpServletRequest request,HttpServletResponse response)方法来实现的 ...
- Android初级教程:shape的基本用法
转载本文请注明出处:http://blog.csdn.net/qq_32059827/article/details/52203347 点击打开链接 在自定义进度条之前,先来学习一下shape的用 ...
- 修改android应用包名
由于项目需要,要修改已经开发好的应用包名,这本身很简单,但是如果你没找到门道,可能会白白浪费许多时间. 修改包名有三个地方要改,这三个地方的修改一定要按顺序来,否则你可能会遇到许多不必要的麻烦. 1. ...
- [java面试]逻辑推理6 10 18 32 下一个数?编程实现输入任意一个N位置,该数是多少?java实现
题目: 6 10 18 32 下一个数?编程实现输入任意一个N位置,该数是多少? 10 = 6 + 4 4 18 = 10 + 8 4 + 4 32 = 18 + 14 ...
- Access数据类型和.NET数据类型映射
下表列出了 Microsoft Access 和这些数据类型与 Microsoft.NET Framework 数据类型与 OleDbType 枚举的方式中使用的最常见的数据类型. 访问类型名称 数据 ...
- 开发Nginx模块Helloworld
本文是对<深入理解Nginx>一书中的实例进行实战时的记录. 1模块目录结构 my_test_module/ ├── config └── ngx_http_mytest_module.c ...
- XML跨平台,你懂的
XML跨平台,你懂的 [引子] 90后小妹,问我,"都说XML跨平台,偶真的,不理解.XML语言的这大优势,倒是深深记在脑海里了." 当然,偶立马应声答到,& ...
- Spring揭秘 读书笔记 五 容器的启动
Spring的IoC容器所起的作用,就是生产bean,并维持bean间的依赖关系.它会以某种方式加载Configuration Metadata(通常也就是XML格式的配置信息),然后根据这些信息绑定 ...