MongoDB中的分组
一.MongoDB中的Count函数、Distinct函数以及分组
准备工作,插入一个班级的文档
> for(var i=0;i<10;i++){
... db.Classes.insert({ClassName:"Class"+i,_id:i});
... }
WriteResult({ "nInserted" : 1 })
> db.Classes.find()
{ "_id" : 0, "ClassName" : "Class0" }
{ "_id" : 1, "ClassName" : "Class1" }
{ "_id" : 2, "ClassName" : "Class2" }
{ "_id" : 3, "ClassName" : "Class3" }
{ "_id" : 4, "ClassName" : "Class4" }
{ "_id" : 5, "ClassName" : "Class5" }
{ "_id" : 6, "ClassName" : "Class6" }
{ "_id" : 7, "ClassName" : "Class7" }
{ "_id" : 8, "ClassName" : "Class8" }
{ "_id" : 9, "ClassName" : "Class9" }
>
1.count函数
如上面,如果要统计班级的数目,可以使用count函数进行统计
> db.Classes.find().count()
10
>
2.Distinct函数
修改一下Classes文档,添加一条重复的数据
> db.Classes.insert({_id:10,ClassName:"Class9"})
WriteResult({ "nInserted" : 1 })
> db.Classes.find()
{ "_id" : 0, "ClassName" : "Class0" }
{ "_id" : 1, "ClassName" : "Class1" }
{ "_id" : 2, "ClassName" : "Class2" }
{ "_id" : 3, "ClassName" : "Class3" }
{ "_id" : 4, "ClassName" : "Class4" }
{ "_id" : 5, "ClassName" : "Class5" }
{ "_id" : 6, "ClassName" : "Class6" }
{ "_id" : 7, "ClassName" : "Class7" }
{ "_id" : 8, "ClassName" : "Class8" }
{ "_id" : 9, "ClassName" : "Class9" }
{ "_id" : 10, "ClassName" : "Class9" }
现在我想查询所有ClassName,去掉重复的,可以执行下面的操作。
> db.runCommand({distinct:"Classes",key:"ClassName"}).values
[
"Class0",
"Class1",
"Class2",
"Class3",
"Class4",
"Class5",
"Class6",
"Class7",
"Class8",
"Class9"
]
>
去重语法 db.runCommand({distinct:"数据集合名字",key:"需要去重的键"}).values
3.Group分组操作(比较复杂)
语法:
db.runCommand({group:{
ns:集合名字,
Key:分组的键对象,
Initial:初始化累加器,
$reduce:组分解器,
Condition:条件,
Finalize:组完成器
}})
1).key:用来分组文档的字段。和keyf两者必须有一个
2).keyf:可以接受一个javascript函数。用来动态的确定分组文档的字段。和key两者必须有一个
3).initial:reduce中使用变量的初始化
4).reduce:执行的reduce函数。函数需要返回值。
5).cond:执行过滤的条件。
6).finallize:在reduce执行完成,结果集返回之前对结果集最终执行的函数。可选的。
具体的使用可以参考手册:http://mongodb-documentation.readthedocs.org/en/latest/reference/command/group.html
分组首先会按照key进行分组,每组的 每一个文档全要执行$reduce的方法,他接收2个参数一个是组内本条记录,一个是累加器数据.
新建一个persons集合,插入一下数据
var persons = [{
name:"Tom",
age:25,
country:"USA"
},
{
name:"Jack",
age:25,
country:"USA"
},
{
name:"Lucy",
age:26,
country:"USA"
},
{
name:"DaChengzi",
age:27,
country:"China"
},
{
name:"Xiaojuz",
age:26,
country:"China"
},
{
name:"DaPingguo",
age:27,
country:"China"
},
{
name:"XiaoBoluo",
age:27,
country:"China"
},
{
name:"Bangzi1",
age:26,
country:"Korea"
},
{
name:"LiShishi",
age:27,
country:"Korea"
},
{
name:"Rain",
age:21,
country:"Korea"
},
{
name:"CangJingkong",
age:30,
country:"Japan"
}]
for(var i = 0;i<persons.length;i++){
db.persons.insert(persons[i])
}
插入完成后,查看一下:

现在我有一个需求,想要找到每个国家当中年纪最大的人,并且年纪不大于30岁,输出他们的名字
思路: ①先按照国家进行分组
②找到每个国家中年纪最小的
③判断年纪是不是小于30
编写查询:
db.runCommand({group:{
ns:"persons",
key:{"country":true},
initial:{age:0},
$reduce:function(doc,prev){
if(doc.age>prev.age){
prev.age=doc.age;
prev.name = doc.name;
prev.country = doc.country;
}
},
condition:{age:{$lt:30}}
}})
运行结果:
{
"retval" : [
{
"country" : "USA",
"age" : 26,
"name" : "Lucy"
},
{
"country" : "China",
"age" : 27,
"name" : "DaChengzi"
},
{
"country" : "Korea",
"age" : 27,
"name" : "LiShishi"
}
],
"count" : 10,
"keys" : 3,
"ok" : 1
}
从结果看到日本女士苍井空的年龄是30,被我筛选掉了…...
Finallize的使用,如果觉得返回的东西太过单调,可以使用finalize进行再次的修改
例如:
db.runCommand({group:{
ns:"persons",
key:{"country":true},
initial:{age:0},
$reduce:function(doc,prev){
if(doc.age>prev.age){
prev.age=doc.age;
prev.name = doc.name;
prev.country = doc.country;
}
},
finalize:function(prev){
prev.age = "Age is" +prev.age;
prev.name = "Name is " + prev.name;
prev.country = "Country is " + prev.country;
},
condition:{age:{$lt:30}}
}})
加上上面之后,查询的结果如下:
{
"retval" : [
{
"country" : "Country is USA",
"age" : "Age is26",
"name" : "Name is Lucy"
},
{
"country" : "Country is China",
"age" : "Age is27",
"name" : "Name is DaChengzi"
},
{
"country" : "Country is Korea",
"age" : "Age is27",
"name" : "Name is LiShishi"
}
],
"count" : 10,
"keys" : 3,
"ok" : 1
}
可以看到每一项数据前面,都加上了说明文字,所以说finialize是可以对分完组之后的数据在做一次修改的。
二.命令执行器(db.runCommand())
1.之前我们遇到删除集合,一般使用的方法是 db.集合名.drop()
使用命令执行器:
db.runCommand({drop:"集合"})
2.查找MongoDB为我们提供的命令
①在shell中执行:db.listCommands()
②访问网址http://127.0.0.1:28017/_commands
3.常用命令
略
三.固定集合(Capped Collection)
1.解释:就是固定size的集合呗。
2.特点:性能出色的有着固定大小的集合,以LRU(Least Recently Used最近最少使用)规则和插入顺序进行age-out(老化移出)处理,自动维护集合中对象的插入顺序,在创建时需要预先指定大小。如果空间用完,新添加的对象将会取代集合中最旧的对象永远保持最新的数据
总结就是以下:
①固定集合默认是没有索引的就算是_id也是没有索引的
②由于不需分配新的空间他的插入速度是非常快的
③固定集合的顺是确定的导致查询速度是非常快的
④最适合的是应用就是日志管理
3.使用
①创建一个固定集合
创建一个新的固定集合要求大小是100个字节,可以存储文档10个
> db.createCollection("myCapped",{size:100,capped:true,max:10})
{ "ok" : 1 }
>
②把一个普通集合转成固定集合
> db.runCommand({convertToCapped:"Classes",size:100000})
{ "ok" : 1 }
>
③插入数据
文档最大为10个,那么当插入11条数据的时候,会出现什么情况呢,根据之前的概念,应该是吧第一条数据踢出去,然后加入最后一条
> for(var i = 0; i<11;i++){
... db.myCapped.insert({name:"name"+i,_id:i})
... }
WriteResult({ "nInserted" : 1 })
> db.myCapped.find()
{ "_id" : 1, "name" : "name1" }
{ "_id" : 2, "name" : "name2" }
{ "_id" : 3, "name" : "name3" }
{ "_id" : 4, "name" : "name4" }
{ "_id" : 5, "name" : "name5" }
{ "_id" : 6, "name" : "name6" }
{ "_id" : 7, "name" : "name7" }
{ "_id" : 8, "name" : "name8" }
{ "_id" : 9, "name" : "name9" }
{ "_id" : 10, "name" : "name10" }
>
> db.myCapped.insert({name:"name11",_id:11})
WriteResult({ "nInserted" : 1 })
> db.myCapped.find()
{ "_id" : 2, "name" : "name2" }
{ "_id" : 3, "name" : "name3" }
{ "_id" : 4, "name" : "name4" }
{ "_id" : 5, "name" : "name5" }
{ "_id" : 6, "name" : "name6" }
{ "_id" : 7, "name" : "name7" }
{ "_id" : 8, "name" : "name8" }
{ "_id" : 9, "name" : "name9" }
{ "_id" : 10, "name" : "name10" }
{ "_id" : 11, "name" : "name11" }
>
④删除数据
> db.myCapped.remove({_id:11})
WriteResult({
"nRemoved" : 0,
"writeError" : {
"code" : 10101,
"errmsg" : "cannot remove from a capped collection: mongoDBTest.myCapped"
}
})
>
如上例,固定集合是不能进行数据删除的。
综上:固定集合有点像一个队列,先进先出,大小不变。
MongoDB中的分组的更多相关文章
- 浅析mongodb中group分组
这篇文章主要介绍了浅析mongodb中group分组的实现方法及示例,非常的简单实用,有需要的小伙伴可以参考下. group做的聚合有些复杂.先选定分组所依据的键,此后MongoDB就会将集合依据选定 ...
- MongoDB中的group
在Mongodb的查询中,有类似于SQL中group by功能的group函数.两者的功能有些类似,但是区别也是比较明显的. 对于SQL来说,group by的作用就是安装依据列来将数据表中的记录分成 ...
- MongoDB学习笔记~管道中的分组实现group+distinct
回到目录 mongoDB的管道是个好东西,它可以将很多操作批处理实现,即将多个命令放入一个管道,然后去顺序的执行它们,今天我要说的是,利用管道中的分组来实现实现中的ditinct+group的效果,即 ...
- 在MongoDB中实现聚合函数 (转)
随着组织产生的数据爆炸性增长,从GB到TB,从TB到PB,传统的数据库已经无法通过垂直扩展来管理如此之大数据.传统方法存储和处理数据的成本将会随着数据量增长而显著增加.这使得很多组织都在寻找一种经济的 ...
- MongoDB实战指南(五):MongoDB中的聚集分析
聚集操作是对数据进行分析的有效手段.MongoDB主要提供了三种对数据进行分析计算的方式:管道模式聚集分析,MapReduce聚集分析,简单函数和命令的聚集分析. 1. 管道模式进行聚集 这里所说的管 ...
- 使用highcharts显示mongodb中的数据
1.mongodb数据表相关 # 显示数据库 show dbs # 数据库 use ceshi # 显示表 show tables # 创建集合 db.createCollection('infoB' ...
- MongoDB中的MapReduce介绍与使用
一.简介 在用MongoDB查询返回的数据量很大的情况下,做一些比较复杂的统计和聚合操作做花费的时间很长的时候,可以用MongoDB中的MapReduce进行实现 MapReduce是个非常灵活和强大 ...
- 详解MongoDB中的多表关联查询($lookup)
一. 聚合框架 聚合框架是MongoDB的高级查询语言,它允许我们通过转换和合并多个文档中的数据来生成新的单个文档中不存在的信息. 聚合管道操作主要包含下面几个部分: 命令 功能描述 $projec ...
- MongoDB中MapReduce介绍与使用
一.简介 在用MongoDB查询返回的数据量很大的情况下,做一些比较复杂的统计和聚合操作做花费的时间很长的时候,可以用MongoDB中的MapReduce进行实现 MapReduce是个非常灵活和强大 ...
随机推荐
- NEsper z
对实时信息分析和处理,常常需要客户应用程序的开发相应功能.一般地,这些功能需要提供以下的处理流程,分析获取的数据,筛选数据,提取出有用的信息,然后将其通过特定的形式展现出来.由于具体实时信息的高并发性 ...
- 性能测试vs负载测试vs压力测试-概念普及
下面我们主要介绍性能测试.负载测试和压力测试. 效率作为ISO 9126内部和外部质量的重要质量属性之一,其含义是在规定条件下,相对于所用的资源的数量,软件产品可提供适当性能的能力.资源可能包括其他软 ...
- linux下的oracle11gR2静默安装,经验分享
说明: 1.我的linux是64位的redhat6.5,安装的oracle版本是11.2.0的. 2.我这是自己安装的linux虚拟机,主机名为ora11g,ip为192.168.100.122 3. ...
- flume服务的搭建
搭建前先统一时间,关闭防火墙,使用的jar包版本是1.6.0的 服务配置有两种方式 第一种:具体步骤如下: 1.将jar包传至node1上,解压至根目录 2.更改目录名,使用如下命令:mv apach ...
- Cogs 97. [NOIP2007] 树网的核 Floyd
题目: http://cojs.tk/cogs/problem/problem.php?pid=97 97. [NOIP2007] 树网的核 ★☆ 输入文件:core.in 输出文件:core ...
- sensor的skipping and binning 模式
关于sensor的缩放存在两种模式 binning mode 和skip mode skipping mode 就是把想要的数据采集上来 把其余的数据扔掉 如下所示 column skip 2 row ...
- ZOJ3471--Most Powerful(状压DP)
有n(n<10)个小球,每两个碰撞有其中一个会消失,并产生一定能量.求产生最大能量. 有了正确思路题目比较简单,我的思路果然是歪的... 我的思路是dp[i][j]表示i这个状态剩下第j个小球, ...
- 动态规划之HDU水题
做水题的感觉真好系列 HDU 2084 数塔 1: 12: 1 23: 1 2 34: 1 2 3 45: 1 2 3 4 5 dp[i][j]第i行第j个数取得的最大值dp[i][j] = max( ...
- 《Effect Java》学习笔记1———创建和销毁对象
第二章 创建和销毁对象 1.考虑用静态工厂方法代替构造器 四大优势: i. 有名称 ii. 不必在每次调用它们的时候都创建一个新的对象: iii. 可以返回原返回类型的任何子类型的对象: JDBC ...
- 揭秘淘宝自主研发的文件系统:TFS
目前,国内自主研发的文件系统可谓凤毛麟角.淘宝在这一领域做了有效的探索和实践,Taobao File System(TFS)作为淘宝内部使用的分布式文件系统,针对海量小文件的随机读写访问性能做了特殊优 ...