自我介绍

大家好!我是熊依,目前就读数据科学与大数据技术专业,我在生活中喜欢绘画,听歌。一开始是纸绘,有了平板后转战板绘,目前在各平台接一些小私稿,赚点小零花钱。学习新的技术例如live2d,3d建模。绘画是唯一能让我静八个小时甚至往上,这也导致我的腰特别容易疼,感觉自己要提前进入老年身体状态。
思维导图
image
现有能力深度复盘
编程基础:掌握 Java 与 Python 基础语法,能完成简单代码编写,但代码量(Java 200 行、Python 800 行)远未达到企业级开发要求,且缺乏面向运维场景的实战编程经验(如自动化脚本开发、故障排查工具编写)。
大数据与 Linux 功底:熟悉多系统(CentOS、Ubuntu、Red Hat)的基础操作与环境配置,了解 Hadoop 核心组件原理并能完成单机 / 集群部署,这是后端运维(尤其是大数据运维方向)的重要优势,但尚未涉及 Hadoop 集群的监控、调优与故障恢复,离生产环境应用还有差距。
数据处理与存储:能使用 Excel 完成小规模数据统计,掌握 MySQL、Redis 基础命令与 Python pandas、numpy 库的入门用法,可应对简单数据处理需求,但面对千万级以上数据的查询优化、分库分表策略,以及 Redis 的持久化、集群部署等进阶内容仍存在知识空白。
前端与自动化:了解 HTML、CSS 语法并编写过百行级网页,掌握 Python selenium 库与多线程技术,具备自动化操作的基础思维,但前端技术仅停留在 “能用” 层面,且未将自动化技术与运维场景结合(如自动化部署、自动化测试脚本开发)。
后端运维核心技能:学习 RHCSA 课程中的 Nginx 配置、yum 管理、进程控制、逻辑卷挂载等基础操作,但知识点掌握不牢固,尤其缺乏对服务高可用配置(如 Nginx 反向代理、负载均衡)、系统性能调优、故障排查的实战经验。
日后如何学习
目标调整:将 “掌握数据科学知识体系” 细化为 “能通过数据分析定位运维问题(如通过系统日志分析故障根因、通过性能数据识别瓶颈)”;
学习方法优化:每学一个技术点,同步思考 “该技术在运维场景的应用”(如学数据清洗时,思考 “如何清洗服务器日志中的无效数据”)。
数据源适配:除课程中的数据库、API 外,额外学习运维核心数据源采集:
系统数据:通过 Linux 命令(top、vmstat、iostat)采集 CPU、内存、磁盘 IO 数据;
日志数据:学习 ELK Stack(Elasticsearch、Logstash、Kibana),实现 Nginx 日志、应用日志的实时采集;
集群数据:通过 Hadoop 自带工具(dfsadmin、mapred job)采集集群运行状态数据。
采集工具实战:将课程中的 “网络爬虫” 转化为 “运维信息爬取”,如用 Python 编写脚本爬取服务器硬件信息、云平台资源使用情况;学习 ETL 工具(如 DataX),实现 MySQL 与 HDFS 之间的运维数据同步。
数据质量保障:针对运维场景,重点关注 “数据实时性”(如监控数据延迟不能超过 10 秒)、“数据完整性”(如日志不能丢失关键字段:时间戳、错误码),练习用 Python 脚本校验数据完整性(如检查日志中是否存在缺失时间戳的记录)

posted @ 2025-09-26 21:48  帆七  阅读(7)  评论(0)    收藏  举报