导出excel的性能测试://www.greatytc.com/p/87ba0a2326f4
导出数据量很大的情况下,生成excel的内存需求非常庞大,服务器吃不消。又要兼顾客户查看,这个时候就只能生成csv来解决问题。
<?php
// csv文件内容不要以字母开始
$title = '报表'."\n";
// 准备字段
$titles = [
'id' => 'ID',
'type' => '类型',
'content' => '内容',
'create_time' => '创建时间',
'mark' => '备注'
];
$fields = '';
foreach ($titles as $k => $v) {
$title .= $v.',';
$fields .= $k.',';
}
$fields = rtrim($fields, ',');
// 数据库查询
$pdo = new PDO('mysql:host=127.0.0.1;dbname=test', 'root', 'root');
$res = $pdo->query('SELECT '.$fields.' from excel_test LIMIT 100000');
$res = $res->fetchAll(PDO::FETCH_ASSOC);
// 结果处理
$csv = $title."\n";
$fields = explode(',', $fields);
foreach ($res as $value) {
$row = '';
foreach ($fields as $field) {
// 按照 fputcsv() 函数的处理方式
if (strpos($value[$field],',') !== FALSE || strpos($value[$field],'"') !== FALSE) {
$row .= '"'.str_replace('"','""',$value[$field]).'",';
}else{
$row .= $value[$field].',';
}
}
$csv .= $row."\n";
}
file_put_contents('./test.csv',mb_convert_encoding($csv, "GBK", "UTF-8"),FILE_APPEND);
总结
- 拼接csv时,更大的内存占用及峰值是在查询转换数据集的阶段,操作csv的内存占用相对来说非常之小。如果还会爆内存,建议采用多次查询数据库处理,如TP5提供的
chunk()
。 - 没有使用
fputcsv()
是因为每行写入一次文件会带来很大的磁盘I/O压力,磁盘是计算机里很慢的东西 -
fputcsv()
经测试如果列中有半角逗号或双引号,会加双引号做定界符,并将内部每个双引号替换成2个 - 时间、内存占用都很好,所以就没记录具体占用。(内存主要受数据库阶段影响,时间很快)