极简博客
简历
联系方式
4. 潜在技术难点与解决方案
发布时间:2026-03-18
#### 后端(Flask) - 服务解耦:把 VLM分析、TTS转写、LLM对话、RAG检索拆成独立的 service子模块,比如: ``` services/ ├── vlm_service.py ├── asr_service.py ├── llm_service.py └── rag_service.py ``` - **异步处理**:因为 AI 模型调用耗时较长,建议用 `Celery` + `Redis` 做异步任务队列,避免前端请求超时。 - API 设计:RESTful 风格 + 清晰的错误码,比如: - `POST /api/interview/start`:创建面试会话 - `POST /api/interview/submit`:提交用户答案(音频 / 文字 + 视频帧) - `GET /api/interview/result/:id`:获取最终评分报告 - **数据库优化**:在 `models.py` 中建立 `Interview` → `Question` → `Answer` → `Score` 的外键关联,方便追溯每一次面试的完整数据。 #### 大赛亮点设计 - **多模态评分**:同时从**内容质量**(LLM)和**行为表现**(VLM)两个维度打分,这是区别于普通文字面试系统的核心优势。 - **RAG 知识库**:支持管理员在 `Admin.js` 后台上传行业面经、公司真题,让 AI 问题更贴合目标岗位。 - **可视化报告**:在 `Result.js` 中用图表展示用户的紧张度变化、话术关键词、知识点薄弱项,直观体现 AI 分析能力。 - **一键部署**:你写的 `start.bat/start.sh` 非常加分,评委可以快速跑通项目,体现工程化能力 ### 4. 潜在技术难点与解决方案 | 难点 | 解决方案 | | :------------------ | :----------------------------------------------------------- | | 音频 / 视频上传延迟 | 分片上传 + 后端流式处理,避免大文件请求超时 | | AI 模型调用成本 | 比赛阶段用免费 API(如豆包、讯飞星火),演示时提前缓存部分结果 | | 数字人口型同步 | 用预渲染好的 `LiveTalking` 视频片段,根据 AI 回答长度动态拼接 | | 评分标准客观性 | 设计量化评分表(内容占比 60%,表达占比 30%,行为占比 10%),让 LLM 输出结构化评分结果 | ```python MYSQL_PASSWORD = os.environ.get('MYSQL_PASSWORD', '123456') ```
← 返回博客列表