k fit in Park Model
software: Gnuplot
input: area_averaged_axial_mean_velocity_TI_1.txt
# One Rotor, front, eldad blade
# TSR , TI =%
#X/D X half width, Ux U Ux/U
0.5 0.23 0.275 0.363 0.6 0.605
0.46 0.93 0.353 0.6 0.588333333
0.92 0.316 0.383 0.6 0.638333333
1.38 0.334 0.41 0.6 0.683333333
1.84 0.349 0.441 0.6 0.735
2.3 0.365 0.462 0.6 0.77
2.76 0.379 0.48 0.6 0.8
3.22 0.39 0.497 0.6 0.828333333
3.68 0.405 0.509 0.6 0.848333333
4.14 0.42 0.52 0.6 0.866666667
4.6 0.431 0.529 0.6 0.881666667
gnuplot code
a = 0.6*(1-sqrt(1-0.7133))
d=0.46
f(x) = (0.6-a*d*d/((d+2*k*x)*(d+2*k*x)))/0.6
fit f(x) 'area_averaged_axial_mean_velocity_TI_1.txt' using 1:6 via k
# plotting
set terminal postscript eps font 24
set out 'k_fit_ti_1_tsr5.eps'
set autoscale
unset log
unset label
unset pm3d
set xtic auto
set ytic auto
unset grid
# set title 'Normalized velocity recover in the wake'
set xlabel "Normalized axial distance, X/D"
set xrange [*:12]
# r0 initial pulse
set yrange [0.5:1]
set ylabel "Normalized mean axial velocity, ~U{0.8-} / U{/Symbol \245}"
set style line 1 lt 1 lc rgb "black" lw 4 pt 1 ps 2
set style line 2 lt 2 lc rgb "black" lw 4 pt 3 ps 2
set style line 3 lt 3 lc rgb "black" lw 4 pt 5 ps 2
set style line 4 lt 4 lc rgb "black" lw 4 pt 7 ps 2
set style line 5 lt 5 lc rgb "black" lw 4
set style line 6 lt 6 lc rgb "brown" lw 4
k_value = sprintf("k = %.3f", k)
set label 1 at 1, 0.85 k_value
set key at graph 0.9, 0.3
set key spacing 1
plot 'area_averaged_axial_mean_velocity_TI_1.txt' using 1:6 ls 1 with points title 'RANS', f(x) lw 3 title "best fitted"
output:
k fit in Park Model的更多相关文章
- Python的主成分分析PCA算法
这篇文章很不错:https://blog.csdn.net/u013082989/article/details/53792010 为什么数据处理之前要进行归一化???(这个一直不明白) 这个也很不错 ...
- The Model Complexity Myth
The Model Complexity Myth (or, Yes You Can Fit Models With More Parameters Than Data Points) An oft- ...
- 高斯混合模型Gaussian Mixture Model (GMM)——通过增加 Model 的个数,我们可以任意地逼近任何连续的概率密分布
从几何上讲,单高斯分布模型在二维空间应该近似于椭圆,在三维空间上近似于椭球.遗憾的是在很多分类问题中,属于同一类别的样本点并不满足“椭圆”分布的特性.这就引入了高斯混合模型.——可以认为是基本假设! ...
- k近邻聚类简介
简介 在所有机器学习算法中,k近邻(K-Nearest Neighbors,KNN)相对是比较简单的. 尽管它很简单,但事实证明它在某些任务中非常有效,甚至更好.它可以用于分类和回归问题! 然而,它更 ...
- 4.K均值算法应用
一.课堂练习 from sklearn.cluster import KMeans import matplotlib.pyplot as plt import numpy as np from sk ...
- Scikit-learn:模型评估Model evaluation
http://blog.csdn.net/pipisorry/article/details/52250760 模型评估Model evaluation: quantifying the qualit ...
- 最大似然估计实例 | Fitting a Model by Maximum Likelihood (MLE)
参考:Fitting a Model by Maximum Likelihood 最大似然估计是用于估计模型参数的,首先我们必须选定一个模型,然后比对有给定的数据集,然后构建一个联合概率函数,因为给定 ...
- Coxph model Pvalue Select
I am calculating cox propotional hazards models with the coxph function from the survival package. ...
- 1.K近邻算法
(一)K近邻算法基础 K近邻(KNN)算法优点 思想极度简单 应用数学知识少(近乎为0) 效果好 可以解释机器学习算法使用过程中的很多细节问题 更完整的刻画机器学习应用的流程 图解K近邻算法 上图是以 ...
随机推荐
- Window下完全卸载删除Nodejs
如何从Windows中删除Node.js: 1.从卸载程序卸载程序和功能. 2.重新启动(或者您可能会从任务管理器中杀死所有与节点相关的进程). 3.寻找这些文件夹并删除它们(及其内容)(如果还有). ...
- Python标准库 datetime
>>> import datetime >>> now = datetime.datetime.now() >>> now datetime.da ...
- git部分指令
git stash #会把所有未提交的修改(包括暂存的和非暂存的)都保存起来,用于后续恢复当前工作目录 git stach pop #恢复之前缓存的工作目录 切换分支: git checkout de ...
- 深入理解spark streaming
spark streaming是建立在spark core之上的,也就说spark streaming任务最终执行还是依赖于RDD模型.在转化成最终的RDD模型执行前,spark streaming主 ...
- Dapper系列之三:Dapper的事务修改与删除
Dapepr的Update和Delete Dapper入门Dapper查询 上两篇文章我们介绍Dapper中添加和查询.本篇文章我们继续讲解修改和删除....如果本篇文章看不懂,请看阅读上两篇Dapp ...
- AJPFX总结线程创建的两种方法
创建线程的第一种方式:继承Thread ,由子类复写run方法.步骤:1,定义类继承Thread类:2,目的是复写run方法,将要让线程运行的代码都存储到run方法中:3,通过创建Thread类的子类 ...
- CF622C Not Equal on a Segment
题目链接: http://codeforces.com/problemset/problem/622/C 题目大意: 给定一个长度为n(n不超过200000)的序列,有m(m不超过200000)次询问 ...
- ARM 环境下使用azure powershell 从远程blob中拉去vhd 并创建虚拟机
最近需要从指定公共访问的blob中复制vhd到自己的订阅存储账户,并使用vhd创建AZURE ARM虚拟机(非经典版),而且在portal.azure.cn中无法实现虚拟机映像创建等功能,于是自己使用 ...
- 我来说说java的NIO
Java NIO的出现旨在提高文件的读写速度,当然IO用NIO重新实过,所以我们不用显示的调用NIO也能享受这种高效的文件读写. Java NIO的高效得益于其两大"助手":C ...
- python_对字符串操作.join() 效率 比 + 效率高
将列表中的字符拼接成字符串时,有两种方式 方式1:使用join()方法,将列表转为字符串 方式2:使用+运算符,循环遍历 import time str1 = ['a','b','c','d','e' ...