Linq_Lambda GroupBy使用笔记
今天看MVC遇到了GroupBY的Lambda表达式..有兴趣详细的看下去..得此笔记..记录之...
不罗嗦..上代码...
//得到List<GroupEmail>对象 数据源
var groupMail = Xmall.Plugin.Edm.Utility.DataCache.EmailGroup.CacheList();
首先得到一个数据源对象
这个对象是一个邮件分组的数据列表..依据固定的缓存对象得出
分组代码如下
var v2 = groupMail.GroupBy(o => o.Valid == true);
//将得到的数据按照某属性进行分组
上边我们用到的是最最简单的分组..他得到的是一个分组数据对象..类型为 IEnumerable<IGrouping<TKey, TSource>>..可以使用.ToList()方法将其中的数据转换为直接读取的数值来使用
如果有特殊需要..比如..分组之后我还要得到一组数据中对应的每一个数据..
譬如..上边的实例是按照数据的是否验证来分组的..得到两组数据..Ture 或者 Flase
我还想得到为Ture的数据的集合..则可以将上述代码进行改造..
var v2 = groupMail.GroupBy(o => o.Valid == true, (iii, vvv) => new { group = iii, groupMails = vvv });
//将得到的数据按照某属性进行分组
//并将分组后的值按照分组值存入对象
我们依然会得到两条数据..依然可以使用 ToList()转换..
新加的代码 (iii, vvv) => new { group = iii, groupMails = vvv } 中,,每一个变量名称都是自定义的..
iii 代表的我们在前边的分组列得到的值..也就是我们的 True 和 False.. 在后边的 New{} 中..给了自定义字段 group
vvv 代表的我们在该分组内的对应数据.. 在后边给了 groupMails..
这个groupMails我们需要说一下..他是延时加载的..本人在测试的时候..数据量比较小..没有感觉到有什么不同..但是数据大的话..就不知道了..很有可能 在你执行到下一个逻辑代码的时候..他还没有加载完毕
上述的代码得到的结果..在转换为ToList之后...对象是这样的..
V2依然可以转换为一个List对象..但列表里的对象则变成了有两个属性.. group 和 groupMails
group里存储的是分组的类别..True 和Flase..
groupMails对象转换为ToList()之后..存储的是与前边属性group一致的对象的集合..
也就意味着..
一个表里有三个True 两个False的值..
经过这般处理之后..
得到的对象里分成两个对象..
一个group为Ture..groupMails的对象有3个..
另外一个则group为False..groupMails的数量有2个..
var bb = v2.First(o => o.group == true).groupMails.Count();
//bb=3
这对于后边的操作优点就非常显而易见了..
你可以得到任何一个与你操作对象有相同某个属性的数量和实体对象了..
再也不用每一个都去单独查找..方便大大滴...
Linq_Lambda GroupBy使用笔记的更多相关文章
- Pandas之groupby( )用法笔记
groupby官方解释 DataFrame.groupby(by=None, axis=0, level=None, as_index=True, sort=True, group_keys=True ...
- CUBRID学习笔记 41 sql语法之groupby 等
cubrid的中sql查询语法groupby GROUP BY ... HAVING Clause 按dept_no分组 SELECT dept_no, avg(sales_amount) FROM ...
- 《笔记》Python itertools的groupby分组数据处理
今天遇到这么一个需求,需要将这样的数据进行分组处理: [(, ), (, ), (, ), (, ), (, ), (, )] 处理之后我可能需要得到这样的结果: [(, (, , (, , (, ) ...
- RxSwift学习笔记7:buffer/window/map/flatMap/flatMapLatest/flatMapFirst/concatMap/scan/groupBy
1.buffer的基本使用 let publishSubject = PublishSubject<String>() //buffer 方法作用是缓冲组合,第一个参数是缓冲时间,第二个参 ...
- itertools.groupby()/itertools.compress() 笔记
关于itertools.groupby() itertools.groupby()就是将相邻的并且相同的键值划分为同一组,相似功能可以看https://docs.python.org/3/librar ...
- 【笔记】DataTable或IList使用GroupBy方法的lamda表达式
DataTable GroupBy的用法 var result = dt.AsEnumerable(). GroupBy(g => new { StaffID = g.Field<stri ...
- python库学习笔记——分组计算利器:pandas中的groupby技术
最近处理数据需要分组计算,又用到了groupby函数,温故而知新. 分组运算的第一阶段,pandas 对象(无论是 Series.DataFrame 还是其他的)中的数据会根据你所提供的一个或多个键被 ...
- Pandas进阶笔记 (一) Groupby 重难点总结
如果Pandas只是能把一些数据变成 dataframe 这样优美的格式,那么Pandas绝不会成为叱咤风云的数据分析中心组件.因为在数据分析过程中,描述数据是通过一些列的统计指标实现的,分析结果也需 ...
- Python数据分析笔记目录
速查笔记 使用实例 Pandas-数据导入 (未完成) Pandas-数据探索 基础属性 shape indexs columns values dtype/dtypes 汇总和计算描述统计 coun ...
随机推荐
- bzoj4264: 小C找朋友
hash大法好 #include <iostream> #include <cstdio> #include <cstring> #include <cmat ...
- python学习笔记10(Python的内存管理)
用这张图激励一下自己,身边也就只有一位全栈数据工程师!!! 32. Python的内存管理 1. 对象的内存使用 对于整型和短字符串对象,一般内存中只有一个存储,多次引用.其他的长字符串和其他对象 ...
- 【BZOJ-1507】Editor 块状链表
1507: [NOI2003]Editor Time Limit: 5 Sec Memory Limit: 162 MBSubmit: 3397 Solved: 1360[Submit][Stat ...
- 【BZOJ-4386】Wycieczki DP + 矩阵乘法
4386: [POI2015]Wycieczki Time Limit: 20 Sec Memory Limit: 128 MBSubmit: 197 Solved: 49[Submit][Sta ...
- 【bzoj1407】 Noi2002—Savage
http://www.lydsy.com/JudgeOnline/problem.php?id=1407 (题目链接) 题意 有n个原始人他们一开始分别住在第c[i]个山洞中,每过一年他们都会迁往第( ...
- Android成长日记-ContextMenu实现上下文菜单
一. ContextMenu的组成 标题以及标题图标 菜单内容 菜单内容的点击事件 二. ContextMenu与OptionMenu的区别 OptionMenu对应的是activity,一个acti ...
- 文件内容统计——Linux wc命令
有了该命令,就可以得到当前目录下所有符合条件的文件总数,如下: find -type f | wc -l 这个命令的功能也很好记,因为它功能很有限: wc -c filename:显示一个文件的字节数 ...
- SPOJ GSS4 Can you answer these queries IV
Time Limit: 500MS Memory Limit: 1572864KB 64bit IO Format: %lld & %llu Description You are g ...
- C#调试方法
单步执行 有三种, 一种是每次执行一行(F10): 一种是每次执行一行,但遇到函数调用就会跳到被调用的函数里(F11): 一种是直接执行当前函数里剩下的指令,返回上一级函数(Shift+F11). 还 ...
- MAC中Django中runserver提示Can't connect to local MySQL server through socket '/tmp/mysql.sock错误
好像不止遇到一次,直接Google就可以了,在stackoverflow中就有答案,答案就是你没有开MySQL - -. stackoverflow链接见 http://stackoverflow.c ...