今天读"SQLServer中批量插入数据方式的性能对比"时发现SqlBulkCopy可批量插入数据,而且代码比较简洁,由是我就测试了一下,下面是结果.
- 如果表的字段长度小于实际字符的长度,记录入库时不是抛出截断异常,而抛出"在从服务器接收结果时发生传输级错误。 (provider: 共享内存提供程序, error: 0 - 管道已结束。)"异常,然后Sql Server停止,数据库无法访问。 这个异常也有点太大了吧!
- 可定义记录入库批次,当出现异常时,该批次事物回滚,本功能无需定义
- 如果当一条记录入库失败,其它记录都回滚需要定义参数SqlTransaction
static void SqlBulkCopyTest(DataTable dt)
{
using (SqlConnection conn = new SqlConnection("Server=localhost;DataBase=B2B;Uid=sa;Pwd=ll;"))
{
conn.Open();
SqlTransaction tran = conn.BeginTransaction();
using (SqlBulkCopy bulkCoye = new SqlBulkCopy(conn
, SqlBulkCopyOptions.Default
, tran))
{
bulkCoye.DestinationTableName = "song";
//设定超时时间
bulkCoye.BulkCopyTimeout = 10;
//每批插入的行数(如果入库失败,只是本批次事物回滚,如果想全部回滚还需要加参数SqlTransaction)
bulkCoye.BatchSize = 2;
//在上面定义的批次里,每准备插入1条数据时,呼叫相应的事件(这时只是准备,没有真正入库)
bulkCoye.NotifyAfter = 1;
bulkCoye.SqlRowsCopied += new SqlRowsCopiedEventHandler(SqlRowsCopied);
try
{
bulkCoye.WriteToServer(dt);
}
catch (Exception e)
{
Console.WriteLine(e.Message);
}
}
}
}
static void SqlRowsCopied(object sender, SqlRowsCopiedEventArgs e)
{
Console.WriteLine("入库行数:" + e.RowsCopied);
}
浙公网安备 33010602011771号