上一篇文章,小编给大家分享了在Navicat中如何远程连接数据库,没有来得及上车的小伙伴可以戳这篇文章:在Ubuntu14.04中配置mysql远程连接教程.今天小编给大家分享一下如何在Navicat中新建数据库和表. 用过远程连接数据库工具的小伙伴都知道,在Navicat中新建数据库和表并不太难,具体的教程如下所示.在这里依然以IP地址为192.168.255.131的主机数据库为例. 1.首先登陆Navicat,然后顺利连接数据库,如下图所示. 2.在IP地址为192.168.255.131…
前几天给大家分享了如何安装Navicat,没有来得及上车的小伙伴可以戳这篇文章:手把手教你安装Navicat——靠谱的Navicat安装教程.今天给大家分享一下Navicat的简单使用教程,具体的教程如下. 1.双击桌面的Navicat图标,启动Navicat. 2.下图是Navicat的主页面,可以看到Navicat的导航栏和各类选项卡. 3.点击左上方的连接,将弹出下图的“新建连接”窗口,在这里需要输入所要连接的主机名或者IP地址,端口直接默认即可,然后输入用户名和密码. 4.输入完成之后,…
多表查询 多表查询,基本规则,通过两表有关联字段的进行条件匹配查询 内连接查询 方式一: SELECT 查看字段名[,查看字段名] FROM 一表名,二表名 WHERE 一/二表.字段 = 一/二表.字段; 方式二: SELECT 查看字段名[,查看字段名] FROM 一表名 INNER JOIN 二表名 on 一/二表.字段 = 一/二表.字段; 外链接查询 左连接查询 SELECT 查看字段名[,查看字段名] FROM 一表名 LEFT JOIN 二表名 on 一/二表.字段 = 一/二表.…
当数据量猛增的时候,大家都会选择库表散列等等方式去优化数据读写速度.笔者做了一个简单的尝试,1亿条数据,分100张表.具体实现过程如下: 首先创建100张表: $i=0; while($i<=99){ echo "$newNumber \r\n"; $sql="CREATE TABLE `code_".$i."` ( `full_code` char(10) NOT NULL, `create_time` int(10) unsigned NOT N…
当数据量猛增的时候,大家都会选择库表散列等等方式去优化数据读写速度.笔者做了一个简单的尝试,1亿条数据,分100张表.具体实现过程如下: 首先创建100张表: $i=0; while($i<=99){ echo "$newNumber \r\n"; $sql="CREATE TABLE `code_".$i."` ( `full_code` char(10) NOT NULL, `create_time` int(10) unsigned NOT N…
https://blog.csdn.net/tenaguan4461/article/details/82286781 https://www.jianshu.com/p/b3dac5a3479a…
今天接到一个需求:要对一个物理分表的逻辑表进行查询统计.而数据库用的是公司自己研发的产品,考虑的到公司产品的特点以及业务的需求,该逻辑表是按年月进行分表的,而非分区.我们来看一下,在按时间段进行查询统计的时候,会有哪些问题: 需要对多个表查询,且表个数不确定 时间跨度越大,查询等等表个数越多,对应查询时间也会越长 如何解决?一起来看一下 分表与分区 目的 既然谈到数据的分表与分区,那我们来简单了解一下.先说一下分表与分区的目的.我们日常开发中都会经常遇到百万或千万级的数据大表,这些表数据量大,数…
目录: 1.基本查询 2.多表查询 3.多行查询 4.集合查询 2.连接 3.嵌套查询 1.基本查询 语法: select column|others{,columnName|others} from tablename where condition [group by 分组的条件 having 分组以后的条件 order by 排序显示  ] 起别名: select columnName [ [as] otherName ] {,columnName [ [as] otherName ] }…
直接上语句 查所有数据库占用空间大小 select TABLE_SCHEMA, concat(truncate(sum(data_length)/1024/1024,2),' MB') as data_size, concat(truncate(sum(index_length)/1024/1024,2),'MB') as index_size from information_schema.tables group by TABLE_SCHEMA order by data_length de…