编辑推荐
适读人群 :深入研究模型微调与优化的科研人员、从事人工智能开发的工程师和产品经理、高等院校相关专业学习大语言模型的师生
覆盖微调、量化与推理完整实战技术
聚焦LORA、P-Tuning主流优化方法
展示多行业真实场景的应用开发案例
强调工程部署与云端集成的实操能力
中国科学院、中国电信研究院、蔚来、京东、曦智科技等多位专家联合推荐
附赠案例代码、教学视频、授课用PPT、函数功能汇总表和拓展思考题等海量学习资源

内容简介
《大语言模型:原理、微调与Agent开发》本书全面探讨了大语言模型(通常可简称“大模型”)在应用开发中的核心技术与实现。内容涵盖了大语言模型的基本原理、微调与优化技术、复杂项目开发流程及高效实用的工程实践案例,通过结构化的模块设计和详细的代码解析,帮助读者快速掌握相关技术并应用于真实场景,搭建从理论到实践的完整知识体系。
《大语言模型:原理、微调与Agent开发》本书分为四部分,共10章,系统梳理了大语言模型的核心架构与原理,深入讲解了Transformer模型的构造与训练机制,全面介绍了现代微调方法(如LoRA、P-Tuning等)以及模型量化、编译与推理优化的关键技术。针对应用场景,本书结合多个企业级实际案例,包括电商智能客服平台、编程辅助插件、寻人检索数据库和硬件开发工程师助理等,详细展示了从需求分析、数据处理、模型选择到上线部署的完整开发流程。这些案例不仅强调技术实现,还融入了工程实践中常见的问题与解决方案,为读者提供了丰富的参考资料。
《大语言模型:原理、微调与Agent开发》本书适合对大语言模型感兴趣的技术爱好者、希望深入研究模型微调与优化的科研人员、从事人工智能开发的工程师和产品经理,同时也适合高等院校相关专业学习大语言模型的师生。同时,随书附赠案例代码、教学视频及授课用PPT,读者可通过扫封底二维码获取。无论是初学者学习理论基础、学生探索前沿技术,还是工程师在一线工作中进行实践开发,本书都能提供系统化的知识体系和实用的开发技能。
作者简介
丁小晶
资深大模型AI应用技术专家与管理者,拥有超过15年计算机及AI领域经验、5年团队管理经验的技术创新与项目管理复合型人才,精通大模型技术及多语言编程,致力于AI大模型的应用和创新。
毕业于中国科学院计算技术研究所,从事高性能计算技术研究。先后在三星中国、百度等世界知名企业工作,有多年旅日工作经历,屡获百度荣誉并持多项专利。目前作为小度教育业务技术负责人及大模型应用专家,致力于研究基于大模型AI教育产品创新,引领小度教育成为行业先锋。
马全一
华为技术有限公司开源运营总监;操作系统和Rust编程语言技术专家;Web3 Infrastructure Foundation创始人、独立董事;黑龙江科技大学兼职教授;开放原子开源基金会开源项目导师。以“拥抱开源”为理念,致力于解决模型生态所遇到的挑战,推动AI生态的发展和完善。
冯洋
南京大学计算机学院副教授,主要研究方向为复杂软件系统质量保障、大语言模型研究和应用开发,研究课题包括复杂软件系统的质量保障技术、大语言模型的微调与优化技术等。近年来发表包括ICSE、FSE、ASE、ISSTA、TSE、TOSEM等CCF-A类期刊与会议学术论文30余篇,并在2022年ASE、2023年FSE、2023年Internetware等大会获杰出论文奖及华为火花奖等奖项。