• 博客园logo
  • 会员
  • 周边
  • 新闻
  • 博问
  • 闪存
  • 众包
  • 赞助商
  • Chat2DB
    • 搜索
      所有博客
    • 搜索
      当前博客
  • 写随笔 我的博客 短消息 简洁模式
    用户头像
    我的博客 我的园子 账号设置 会员中心 简洁模式 ... 退出登录
    注册 登录
CL.TANG
非官方言论,知识谨慎吸收
博客园    首页    新随笔    联系   管理    订阅  订阅
2011年1月21日
Python信息抽取之乱码解决
摘要: 俺希望大家能多多指教,有什么错误或者不同意见请联系我  就事论事,直说自己遇到的情况,和我不一样的路过吧,一样的就看看吧  信息抓取,用python,beautifulSoup,lxml,re,urllib2,urllib2去获取想要抽取的页面内容,然后使用lxml或者beautifulSoup进行解析,插入mysql 具体的内容,好了貌似很简单很easy的样子,可是里面的恶心之处就来了,第一,国内开发网站的人在指定网站编码或者是保存网站源码的时候并没有考虑什么编码,反正一句话,一个网站即使你用工具查看或者查看源码头信息查看到他们的源码是utf-8,或者GBK之类的,也别信,哎,什么东西信了就 阅读全文
posted @ 2011-01-21 14:55 CL.TANG 阅读(2270) 评论(0) 推荐(2)
博客园  ©  2004-2026
浙公网安备 33010602011771号 浙ICP备2021040463号-3