天玑学堂Agent面试总结(二)「持续更新」
这里是苦瓜大王一个极度焦虑但还在坚持输出的Java后端学习者 希望大家多多支持我们一起进步如果文章对你有帮助的话欢迎 评论 点赞 收藏 加关注❤️━(∀´)ノ亻!「长风破浪会有时直挂云帆济沧海」接上一篇天玑学堂Agent面试总结一「持续更新」文章目录**11. ollama是什么有什么作用****12. Ollama谁部署的你的AI机器人怎么部署的****13. 你们的Ollama怎么用的你们用的是什么硬件****14. 你们的Ollama用的什么模型版本****15. 你们Ollama大模型里面都是老数据是怎么解决的****16. 你的Maxkb和Ollama是怎么联系起来的****17. 用户是直接和Ollama对话还是和Maxkb知识库对话****18. 你项目中的AI是怎么做的怎么将数据公司项目数据同步到大模型中****19. 大模型在你们的项目里怎么用的有什么兴趣吗****20. 大模型的使用心得尤其是在图像处理上**「持续更新建议关注我哦」…11. ollama是什么有什么作用参考答案Ollama 是一个轻量级的本地大模型部署工具允许用户快速在本地或服务器上部署和管理多个大模型如Llama、Qwen。其核心作用是本地推理避免依赖云端API降低延迟和成本。模型管理支持多模型并行运行切换灵活。轻量化优化模型加载速度适合边缘设备。12. Ollama谁部署的你的AI机器人怎么部署的参考答案Ollama是我们公司运维部署的本地我自己也搭过我的AI机器人部署流程如下环境准备安装Ollama并拉取所需模型如ollama pull qwen。服务集成通过Spring AI集成Ollama。容器化使用Docker封装服务便于扩展和维护。监控与优化通过Prometheus监控资源使用调整并发配置。13. 你们的Ollama怎么用的你们用的是什么硬件参考答案我们用Ollama部署了qwen2.5:32b硬件配置为服务器NVIDIA A10/A40 GPU支持多模型并行推理。存储SSD硬盘加速模型加载。网络高带宽保证API调用延迟低于200ms。14. 你们的Ollama用的什么模型版本参考答案当前使用的是qwen2.5:32b该版本在[具体任务如对话连贯性、代码生成]上性能提升显著。15. 你们Ollama大模型里面都是老数据是怎么解决的参考答案通过以下方式更新数据增量训练定期用新数据微调模型。知识库联动结合RAG技术动态检索最新知识库内容。API混合调用对时效性要求高的场景优先调用云端最新模型API。16. 你的Maxkb和Ollama是怎么联系起来的参考答案Maxkb是知识库系统Ollama是推理引擎两者通过以下方式协作数据同步Maxkb将文档向量化后存储到Ollama支持的检索数据库。联合推理用户查询先通过Ollama生成初步回答再结合Maxkb的检索结果优化输出。17. 用户是直接和Ollama对话还是和Maxkb知识库对话参考答案用户直接与Ollama对话但Maxkb作为后端支持Ollama负责生成回答Maxkb提供上下文知识检索。例如用户问“产品价格”Ollama调用Maxkb的最新价格数据生成回答。18. 你项目中的AI是怎么做的怎么将数据公司项目数据同步到大模型中参考答案数据同步流程数据采集从公司数据库或API获取结构化数据。清洗与标注去噪、标准化并标注关键字段。向量化存储使用Sentence-BERT等工具将文本转化为向量存入Maxkb或Milvus我们用的是ES。模型微调用公司数据对预训练模型进行Fine-tuning提升领域适配性。19. 大模型在你们的项目里怎么用的有什么兴趣吗参考答案大模型在项目中用于文本生成客服对话、报告撰写。数据分析从非结构化数据中提取关键信息。多模态处理结合图像/语音输入生成综合回答。兴趣点在于探索大模型在[具体领域如医疗、金融]的垂直应用潜力。20. 大模型的使用心得尤其是在图像处理上参考答案使用心得优势单模型支持多任务如文本生成、图像描述。挑战图像处理需结合专用模型如Stable Diffusion或API。需要数据增强解决小样本问题。优化通过CLIP模型实现图文对齐提升跨模态理解能力。「持续更新建议关注我哦」…关注苦瓜小生后续会持续更新面试题总结哦如果文章对你有帮助的话欢迎 评论 点赞 收藏 加关注❤️━(∀´)ノ亻!