SQL 2005批量插入数据的二种方法

Posted on 2010-07-22 18:13 moss_tan_jun 阅读(2635) 评论(2) 编辑 收藏

    

在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Insert不仅效率低,而且会导致SQL一系统性能问题。下面介绍SQL Server支持的两种批量数据插入方法:Bulk和表值参数(Table-Valued Parameters)。

运行下面的脚本,建立测试数据库和表值参数。

view plaincopy to clipboardprint?
--Create DataBase   
create database BulkTestDB;   
go   
use BulkTestDB;   
go   
--Create Table   
Create table BulkTestTable(   
Id int primary key,   
UserName nvarchar(32),   
Pwd varchar(16))   
go   
--Create Table Valued   
CREATE TYPE BulkUdt AS TABLE   
  (Id int,   
   UserName nvarchar(32),   
   Pwd varchar(16))  
--Create DataBase
create database BulkTestDB;
go
use BulkTestDB;
go
--Create Table
Create table BulkTestTable(
Id int primary key,
UserName nvarchar(32),
Pwd varchar(16))
go
--Create Table Valued
CREATE TYPE BulkUdt AS TABLE
  (Id int,
   UserName nvarchar(32),
   Pwd varchar(16))

下面我们使用最简单的Insert语句来插入100万条数据,代码如下:

view plaincopy to clipboardprint?
Stopwatch sw = new Stopwatch();   
  
SqlConnection sqlConn = new SqlConnection(   
    ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);//连接数据库   
  
SqlCommand sqlComm = new SqlCommand();   
sqlComm.CommandText = string.Format("insert into BulkTestTable(Id,UserName,Pwd)values(@p0,@p1,@p2)");//参数化SQL   
sqlComm.Parameters.Add("@p0", SqlDbType.Int);   
sqlComm.Parameters.Add("@p1", SqlDbType.NVarChar);   
sqlComm.Parameters.Add("@p2", SqlDbType.VarChar);   
sqlComm.CommandType = CommandType.Text;   
sqlComm.Connection = sqlConn;   
sqlConn.Open();   
try  
{   
    //循环插入100万条数据,每次插入10万条,插入10次。   
    for (int multiply = 0; multiply < 10; multiply++)   
    {   
        for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)   
        {   
  
            sqlComm.Parameters["@p0"].Value = count;   
            sqlComm.Parameters["@p1"].Value = string.Format("User-{0}", count * multiply);   
            sqlComm.Parameters["@p2"].Value = string.Format("Pwd-{0}", count * multiply);   
            sw.Start();   
            sqlComm.ExecuteNonQuery();   
            sw.Stop();   
        }   
        //每插入10万条数据后,显示此次插入所用时间   
        Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));   
    }   
}   
catch (Exception ex)   
{   
    throw ex;   
}   
finally  
{   
    sqlConn.Close();   
}   
  
Console.ReadLine();  
            Stopwatch sw = new Stopwatch();

SqlConnection sqlConn = new SqlConnection(
                ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);//连接数据库

SqlCommand sqlComm = new SqlCommand();
            sqlComm.CommandText = string.Format("insert into BulkTestTable(Id,UserName,Pwd)values(@p0,@p1,@p2)");//参数化SQL
            sqlComm.Parameters.Add("@p0", SqlDbType.Int);
            sqlComm.Parameters.Add("@p1", SqlDbType.NVarChar);
            sqlComm.Parameters.Add("@p2", SqlDbType.VarChar);
            sqlComm.CommandType = CommandType.Text;
            sqlComm.Connection = sqlConn;
            sqlConn.Open();
            try
            {
                //循环插入100万条数据,每次插入10万条,插入10次。
                for (int multiply = 0; multiply < 10; multiply++)
                {
                    for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)
                    {

sqlComm.Parameters["@p0"].Value = count;
                        sqlComm.Parameters["@p1"].Value = string.Format("User-{0}", count * multiply);
                        sqlComm.Parameters["@p2"].Value = string.Format("Pwd-{0}", count * multiply);
                        sw.Start();
                        sqlComm.ExecuteNonQuery();
                        sw.Stop();
                    }
                    //每插入10万条数据后,显示此次插入所用时间
                    Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));
                }
            }
            catch (Exception ex)
            {
                throw ex;
            }
            finally
            {
                sqlConn.Close();
            }

Console.ReadLine();

耗时图如下:

由于运行过慢,才插入10万条就耗时72390 milliseconds,所以我就手动强行停止了。

下面看一下使用Bulk插入的情况:

bulk方法主要思想是通过在客户端把数据都缓存在Table中,然后利用SqlBulkCopy一次性把Table中的数据插入到数据库

代码如下:

view plaincopy to clipboardprint?
public static void BulkToDB(DataTable dt)   
{   
    SqlConnection sqlConn = new SqlConnection(   
        ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);   
    SqlBulkCopy bulkCopy = new SqlBulkCopy(sqlConn);   
    bulkCopy.DestinationTableName = "BulkTestTable";   
    bulkCopy.BatchSize = dt.Rows.Count;   
  
    try  
    {   
        sqlConn.Open();   
    if (dt != null && dt.Rows.Count != 0)   
        bulkCopy.WriteToServer(dt);   
    }   
    catch (Exception ex)   
    {   
        throw ex;   
    }   
    finally  
    {   
        sqlConn.Close();   
        if (bulkCopy != null)   
            bulkCopy.Close();   
    }   
}   
  
public static DataTable GetTableSchema()   
{   
    DataTable dt = new DataTable();   
    dt.Columns.AddRange(new DataColumn[]{   
        new DataColumn("Id",typeof(int)),   
        new DataColumn("UserName",typeof(string)),   
    new DataColumn("Pwd",typeof(string))});   
  
    return dt;   
}   
  
static void Main(string[] args)   
{   
    Stopwatch sw = new Stopwatch();   
    for (int multiply = 0; multiply < 10; multiply++)   
    {   
        DataTable dt = Bulk.GetTableSchema();   
        for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)   
        {   
            DataRow r = dt.NewRow();   
            r[0] = count;   
            r[1] = string.Format("User-{0}", count * multiply);   
            r[2] = string.Format("Pwd-{0}", count * multiply);   
            dt.Rows.Add(r);   
        }   
        sw.Start();   
        Bulk.BulkToDB(dt);   
        sw.Stop();   
        Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));   
    }   
  
    Console.ReadLine();   
}  
public static void BulkToDB(DataTable dt)
{
    SqlConnection sqlConn = new SqlConnection(
        ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);
    SqlBulkCopy bulkCopy = new SqlBulkCopy(sqlConn);
    bulkCopy.DestinationTableName = "BulkTestTable";
    bulkCopy.BatchSize = dt.Rows.Count;

try
    {
        sqlConn.Open();
 if (dt != null && dt.Rows.Count != 0)
     bulkCopy.WriteToServer(dt);
    }
    catch (Exception ex)
    {
        throw ex;
    }
    finally
    {
        sqlConn.Close();
        if (bulkCopy != null)
            bulkCopy.Close();
    }
}

public static DataTable GetTableSchema()
{
    DataTable dt = new DataTable();
    dt.Columns.AddRange(new DataColumn[]{
        new DataColumn("Id",typeof(int)),
        new DataColumn("UserName",typeof(string)),
 new DataColumn("Pwd",typeof(string))});

return dt;
}

static void Main(string[] args)
{
    Stopwatch sw = new Stopwatch();
    for (int multiply = 0; multiply < 10; multiply++)
    {
        DataTable dt = Bulk.GetTableSchema();
        for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)
        {
            DataRow r = dt.NewRow();
            r[0] = count;
            r[1] = string.Format("User-{0}", count * multiply);
            r[2] = string.Format("Pwd-{0}", count * multiply);
            dt.Rows.Add(r);
        }
        sw.Start();
        Bulk.BulkToDB(dt);
        sw.Stop();
        Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));
    }

Console.ReadLine();
}

耗时图如下:

可见,使用Bulk后,效率和性能明显上升。使用Insert插入10万数据耗时72390,而现在使用Bulk插入100万数据才耗时17583。

最后再看看使用表值参数的效率,会另你大为惊讶的。

表值参数是SQL Server 2008新特性,简称TVPs。对于表值参数不熟悉的朋友,可以参考最新的book online,我也会另外写一篇关于表值参数的博客,不过此次不对表值参数的概念做过多的介绍。言归正传,看代码:

view plaincopy to clipboardprint?
public static void TableValuedToDB(DataTable dt)   
{   
    SqlConnection sqlConn = new SqlConnection(   
      ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);   
    const string TSqlStatement =   
     "insert into BulkTestTable (Id,UserName,Pwd)" +   
     " SELECT nc.Id, nc.UserName,nc.Pwd" +   
     " FROM @NewBulkTestTvp AS nc";   
    SqlCommand cmd = new SqlCommand(TSqlStatement, sqlConn);   
    SqlParameter catParam = cmd.Parameters.AddWithValue("@NewBulkTestTvp", dt);   
    catParam.SqlDbType = SqlDbType.Structured;   
    //表值参数的名字叫BulkUdt,在上面的建立测试环境的SQL中有。   
    catParam.TypeName = "dbo.BulkUdt";   
    try  
    {   
      sqlConn.Open();   
      if (dt != null && dt.Rows.Count != 0)   
      {   
          cmd.ExecuteNonQuery();   
      }   
    }   
    catch (Exception ex)   
    {   
      throw ex;   
    }   
    finally  
    {   
      sqlConn.Close();   
    }   
}   
  
public static DataTable GetTableSchema()   
{   
    DataTable dt = new DataTable();   
    dt.Columns.AddRange(new DataColumn[]{   
      new DataColumn("Id",typeof(int)),   
      new DataColumn("UserName",typeof(string)),   
      new DataColumn("Pwd",typeof(string))});   
  
    return dt;   
}   
  
static void Main(string[] args)   
{   
    Stopwatch sw = new Stopwatch();   
    for (int multiply = 0; multiply < 10; multiply++)   
    {   
        DataTable dt = TableValued.GetTableSchema();   
        for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)   
        {           
            DataRow r = dt.NewRow();   
            r[0] = count;   
            r[1] = string.Format("User-{0}", count * multiply);   
            r[2] = string.Format("Pwd-{0}", count * multiply);   
            dt.Rows.Add(r);   
        }   
        sw.Start();   
        TableValued.TableValuedToDB(dt);   
        sw.Stop();   
        Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));   
    }   
  
    Console.ReadLine();   
}  
public static void TableValuedToDB(DataTable dt)
{
    SqlConnection sqlConn = new SqlConnection(
      ConfigurationManager.ConnectionStrings["ConnStr"].ConnectionString);
    const string TSqlStatement =
     "insert into BulkTestTable (Id,UserName,Pwd)" +
     " SELECT nc.Id, nc.UserName,nc.Pwd" +
     " FROM @NewBulkTestTvp AS nc";
    SqlCommand cmd = new SqlCommand(TSqlStatement, sqlConn);
    SqlParameter catParam = cmd.Parameters.AddWithValue("@NewBulkTestTvp", dt);
    catParam.SqlDbType = SqlDbType.Structured;
    //表值参数的名字叫BulkUdt,在上面的建立测试环境的SQL中有。
    catParam.TypeName = "dbo.BulkUdt";
    try
    {
      sqlConn.Open();
      if (dt != null && dt.Rows.Count != 0)
      {
          cmd.ExecuteNonQuery();
      }
    }
    catch (Exception ex)
    {
      throw ex;
    }
    finally
    {
      sqlConn.Close();
    }
}

public static DataTable GetTableSchema()
{
    DataTable dt = new DataTable();
    dt.Columns.AddRange(new DataColumn[]{
      new DataColumn("Id",typeof(int)),
      new DataColumn("UserName",typeof(string)),
      new DataColumn("Pwd",typeof(string))});

return dt;
}

static void Main(string[] args)
{
    Stopwatch sw = new Stopwatch();
    for (int multiply = 0; multiply < 10; multiply++)
    {
        DataTable dt = TableValued.GetTableSchema();
        for (int count = multiply * 100000; count < (multiply + 1) * 100000; count++)
        {        
            DataRow r = dt.NewRow();
            r[0] = count;
            r[1] = string.Format("User-{0}", count * multiply);
            r[2] = string.Format("Pwd-{0}", count * multiply);
            dt.Rows.Add(r);
        }
        sw.Start();
        TableValued.TableValuedToDB(dt);
        sw.Stop();
        Console.WriteLine(string.Format("Elapsed Time is {0} Milliseconds", sw.ElapsedMilliseconds));
    }

Console.ReadLine();
}

SQL 2005批量插入数据的二种方法的更多相关文章

  1. SQL Server 批量插入数据的两种方法

    在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Insert不仅效率低,而且会导致SQL一系统性能问题.下面介绍 SQL Server支持的两种批 ...

  2. SQL Server 批量插入数据的两种方法(转)

    此文原创自CSDN TJVictor专栏:http://blog.csdn.net/tjvictor/archive/2009/07/18/4360030.aspx 在SQL Server 中插入一条 ...

  3. 转:SQL Server 批量插入数据的两种方法

    在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Insert不仅效率低,而且会导致SQL一系统性能问题.下面介绍SQL Server支持的两种批量 ...

  4. SQLServer 批量插入数据的两种方法

    SQLServer 批量插入数据的两种方法-发布:dxy 字体:[增加 减小] 类型:转载 在SQL Server 中插入一条数据使用Insert语句,但是如果想要批量插入一堆数据的话,循环使用Ins ...

  5. MySQL批量插入数据的几种方法

    最近公司要求测试数据库的性能,就上网查了一些批量插入数据的代码,发现有好几种不同的用法,插入同样数据的耗时也有区别 别的先不说,先上一段代码与君共享 方法一: package com.bigdata; ...

  6. MyBatis 批量插入数据的 3 种方法!

    批量插入功能是我们日常工作中比较常见的业务功能之一,之前我也写过一篇关于<MyBatis Plus 批量数据插入功能,yyds!>的文章,但评论区的反馈不是很好,主要有两个问题:第一,对 ...

  7. 小白鼠排队(map容器插入数据的四种方法)

    题目描述 N只小白鼠(1 <= N <= 100),每只鼠头上戴着一顶有颜色的帽子.现在称出每只白鼠的重量,要求按照白鼠重量从大到小的顺序输出它们头上帽子的颜色.帽子的颜色用“red”,“ ...

  8. SQL Server 批量插入数据方案 SqlBulkCopy 的简单封装,让批量插入更方便

    一.Sql Server插入方案介绍 关于 SqlServer 批量插入的方式,有三种比较常用的插入方式,Insert.BatchInsert.SqlBulkCopy,下面我们对比以下三种方案的速度 ...

  9. MariaDB快速批量插入数据的几种办法

    前言 当要向MariaDB中插入新的数据时,以下过程会影响插入所消耗的时间:(按时间消耗长短降序排序) 将数据sync到磁盘上(它是事务结束的一部分) 添加新的键值.索引越大,更新键值所消耗的时间就越 ...

随机推荐

  1. jenkins自动部署测试环境

    构建脚本如下: echo "当前目录":$(pwd)echo "当前时间":$(date +%Y-%m-%d_%H:%M)find ./ -type f -na ...

  2. Java之希尔排序

    希尔排序 前面已经知道了插入排序,明白插入排序的原理,不断比较来交换相邻的元素,这样的话效率不高,为此希尔排序,在插入排序上做出了改进,通过间隔增量来比较并交换元素,这样可以减少比较交换的次数. pa ...

  3. No value specified for parameter1?

    我使用的是jdbcTemplate,因为忘记向list中加入参数,所以报错. 解决方案,: String sql = "select * from table where id = ?&qu ...

  4. tab下拉显示

    <!DOCTYPE html> <html lang="en"> <head>     <meta charset="UTF-8 ...

  5. 【解题报告】洛谷 P2571 [SCOI2010]传送带

    [解题报告]洛谷 P2571 [SCOI2010]传送带今天无聊,很久没有做过题目了,但是又不想做什么太难的题目,所以就用洛谷随机跳题,跳到了一道题目,感觉好像不是太难. [CSDN链接](https ...

  6. Coin Toss(uva 10328,动态规划递推,限制条件,至少转至多,高精度)

    有n张牌,求出至少有k张牌连续是正面的排列的种数.(1=<k<=n<=100) Toss is an important part of any event. When everyt ...

  7. Linux终端中的字符串使用总结(截取,切片,查找替换,转换,变量赋值等)

    1.基于模式匹配截取字符串 1.#.##号截取 #号截取,从左边开始,以一个出现的分隔符(最左)为准,删除左边字符. ##号截取,从左边开始,以最后(最右)一个分隔符为准,删除左边字符. str='h ...

  8. BZOJ 1827 洛谷 2986 [USACO10MAR]伟大的奶牛聚集Great Cow Gather

    [题解] 很容易想到暴力做法,枚举每个点,然后对于每个点O(N)遍历整棵树计算答案.这样整个效率是O(N^2)的,显然不行. 我们考虑如果已知当前某个点的答案,如何快速计算它的儿子的答案. 显然选择它 ...

  9. 线程 synchronized锁机制

    脏读 一个常见的概念.在多线程中,难免会出现在多个线程中对同一个对象的实例变量进行并发访问的情况,如果不做正确的同步处理,那么产生的后果就是"脏读",也就是取到的数据其实是被更改过 ...

  10. pyhthon第一个小脚本——文件备份

    先说说这个脚本的作用:对指定路径的文件进行压缩备份到另一个指定的路径,并且压缩文件的文件名用当时的日期+时间命名. 先是对着<简明Python教程>上的代码敲的,一堆错误,书上给的是lin ...