基于pandas自动化的csv信息提取保存的脚本

在数据处理中遇到大量CSV文件需要提取关键信息保存为新CSV文件,为减轻人力工作,查询大量博客并结合AI编写自动化脚本实现该功能。

测试学习pandas模块能力

 

import pandas as pd
from pathlib import Path
import chardet
import os

input_file = '123/LURM.csv' #待处理文件

#检测文件编码
with open(input_file, 'rb') as f:
    raw_data = f.read(10000)  # 只读取前10000字节进行检测
    result = chardet.detect(raw_data)
    encoding = result['encoding']
    print(encoding)

#导入文件
df = pd.read_csv(input_file, encoding=encoding)
#print(df)
print(f"原始数据列名: {list(df.columns)}")

#提取指定列
columns_to_extract = ['vn', '报文类型', '采集时间', '上报时间', '车辆状态', '采集时间', '定位有效性', '纬度类型', '经度类型', '经度', '纬度']
extracted_df = df[columns_to_extract]
print(extracted_df)

#保存文件
output_file = 'extracted_result.csv'
#extracted_df.to_csv(output_file, index=False, encoding='utf-8-sig')
extracted_df.to_csv(output_file, index=False, encoding=encoding)

上面这段代码实现单文件信息提取并保存。要实现CSV文件处理需要使用到pandas模块,该模块是大数据文件处理较为热门模块。有编程基础的可以看注释,基本可以理解,如果没有建议使用AI工具指导。

 

正式处理程序

 

""" CSV文件提取保存程序
    代码第一版时间20250911
"""

import pandas as pd
from pathlib import Path
import chardet
import os

def detect_encoding(file_path):
    """检测文件编码"""
    try:
        with open(file_path, 'rb') as f:
            raw_data = f.read(10000)  # 只读取前10000字节进行检测
            result = chardet.detect(raw_data)
            return result['encoding']
    except Exception as e:
        print(f"编码检测失败: {e}")
        return None

def read_csv_with_auto_encoding(file_path):
    """自动检测编码并读取CSV文件"""
    # 常见的编码尝试顺序
    encodings_to_try = ['utf-8', 'gbk', 'gb2312', 'gb18030', 'latin1', 'cp1252']
    
    # 首先尝试自动检测编码
    detected_encoding = detect_encoding(file_path)
    if detected_encoding:
        encodings_to_try.insert(0, detected_encoding)
    
    for encoding in encodings_to_try:
        try:
            df = pd.read_csv(file_path, encoding=encoding)
            print(f"✓ 成功使用 {encoding} 编码读取文件")
            return df, encoding
        except UnicodeDecodeError:
            continue
        except Exception as e:
            # 如果不是编码问题,可能是其他错误
            if 'codec' not in str(e).lower():
                raise e
    
    # 如果所有编码都失败,尝试使用错误处理
    try:
        df = pd.read_csv(file_path, encoding='utf-8', errors='ignore')
        print("✓ 使用utf-8编码并忽略错误字符读取文件")
        return df, 'utf-8-with-errors-ignored'
    except Exception as e:
        raise Exception(f"所有编码尝试都失败: {e}")
def save_dataframe_to_csv(extracted_df, file_name, encoding_used, output_folder="output"):
    """
    保存提取后的DataFrame到CSV文件
    
    参数:
        extracted_df (pd.DataFrame): 要保存的数据框
        file_name (str): 原始文件名(不含扩展名)
        encoding_used (str): 使用的编码格式
        output_folder (str): 输出文件夹名,默认为"output"
    
    返回:
        bool: 保存成功返回True,失败返回False
    """
    try:
        # 创建输出文件夹(如果不存在)
        output_path = Path(output_folder)
        output_path.mkdir(exist_ok=True)
        
        # 构建输出文件名:原文件名 + "o" + .csv
        output_file = output_path / f"{file_name}_o.csv"
        
        # 检查文件是否已存在
        if output_file.exists():
            raise FileExistsError(f"文件已存在: {output_file}")
        
        # 保存为CSV文件
        extracted_df.to_csv(output_file, index=False, encoding=encoding_used)
        
        print(f"✓ 数据已成功保存到: {output_file}")
        print(f"  使用编码: {encoding_used}")
        print(f"  数据形状: {extracted_df.shape[0]} 行, {extracted_df.shape[1]} 列")
        
        return True
        
    except FileExistsError as e:
        print(f"⚠️  文件已存在错误: {e}")
        return False
    except Exception as e:
        print(f"❌ 保存文件失败: {e}")
        return False
    
def read_all_csv_files(folder_path):
    """
    读取指定文件夹下的所有CSV文件(支持自动编码检测)
    """
    if not os.path.exists(folder_path):
        print(f"错误: 文件夹 '{folder_path}' 不存在")
        return {}
    
    csv_files = list(Path(folder_path).glob("*.csv"))
    
    if len(csv_files) == 0:
        print(f"警告: 在 '{folder_path}' 中没有找到CSV文件")
        return {}
    
    dataframes = {}
    
    print(f"找到 {len(csv_files)} 个CSV文件:")
    print("-" * 50)
    
    for csv_file in csv_files:
        try:
            print(f"\n正在处理: {csv_file.name}")
            df, encoding_used = read_csv_with_auto_encoding(csv_file)

            print(f"✓ 成功读取: {csv_file.name}")
            print(f"  编码: {encoding_used}")
            print(f"  数据形状: {df.shape[0]} 行, {df.shape[1]} 列")

            print("-" * 50)
            print(f"原始数据列名: {list(df.columns)}")
            columns_to_extract = ['vn', '报文类型', '采集时间', '上报时间', '车辆状态', '采集时间', '定位有效性', '纬度类型', '经度类型', '经度', '纬度']
            extracted_df = df[columns_to_extract]
            #print(extracted_df)
            

            # 使用文件名(不含路径和扩展名)作为键
            file_name = csv_file.stem
            dataframes[file_name] = df

            #保存提取后信息到文件
            save_success = save_dataframe_to_csv(extracted_df, file_name, encoding_used)
            if save_success:
                print("✓ 提取的数据已成功保存")
            else:
                print("⚠️  提取的数据保存失败")
            
        except Exception as e:
            print(f"✗ 无法读取 {csv_file.name}: {str(e)}")
    
    return dataframes




# 主程序
if __name__ == "__main__":
    
    # 设置你的文件夹路径
    folder_path = "C:/Users/Downloads/LURM"
    
    # 读取所有CSV文件
    all_data = read_all_csv_files(folder_path)
    
    print(f"\n{'='*50}")
    print(f"总结: 成功读取了 {len(all_data)} 个CSV文件")
    
    # 显示每个文件的基本信息
    # for name, df in all_data.items():
    #     print(f"\n{name}:")
    #     print(f"  形状: {df.shape}")
    #     if len(df.columns) > 0:
    #         print(f"  列名: {list(df.columns)[:5]}{'...' if len(df.columns) > 5 else ''}")
    #     if len(df) > 0:
    #         print(f"  数据预览:")
    #         print(df.head(2))

正式程序的核心代码和测试程序一样,只不过添加大量错误检测和现实文件信息提取的代码(该段代码已注释)。

代码写的比较烂,勿喷,有问题请回复指出。

 

posted @ 2025-09-15 20:08  JianYuBlog  阅读(7)  评论(0)    收藏  举报