一、项目目的与意义
在当代社会,儿童成长环境面临诸多新挑战,城市化进程中“双职工家庭” 现象普遍,部分孩子面临孤独、焦虑等情绪问题,由于儿童表达能力有限,家长往往难以对其进行有效的情绪疏导。目前市场上的传统玩具多侧重娱乐功能,缺乏对儿童情绪需求的关注与引导,难以满足“情绪陪伴”的实际需求。本项目旨在设计一款面向 低龄儿童的 “情绪价值智能机器狗”,将人工智能技术与儿童心理学深度结合,以 “陪伴者” 的角色,为儿童提供情绪识别、情感陪伴、情绪疏导等服务考。
二、项目目标
本项目旨在设计并开发一款面向儿童情绪价值机器狗,项目目标完成情绪机器狗的核心硬件选型与搭建,包括传感器、处理器、执行机构等部件的筛选与组装;完成机器狗基本动作的编程,如前进、后退、转弯、摇尾巴等。搭建基础的情绪识别算法模型,实现对常见情绪(如开心、悲伤、愤怒、平静)的识别;可结合语音、面部表情、多维度数据提升识别准确率;开发多样化的情绪反馈功能,使机器狗能根据识别到的情绪做出对应的行为和语音反馈。完成情绪机器狗原型机的测试与调试,解决硬件兼容、算法稳定性等问题。
三、研究内容
1、硬件系统搭建
传感器模块:选取高清摄像头用于采集用户面部表情图像,语音传感器收集用户语音信息,实现多维度情绪数据的采集。
处理器模块:选用高性能的嵌入式处理器,确保能快速处理大量的情绪数据和执行复杂的算法指令。
执行机构模块:配备电机、舵机等部件,驱动机器狗完成各种动作,同时搭载扬声器和显示屏,实现语音输出和图像展示功能。
电源模块:选择大容量、高安全性的锂电池,保证机器狗的续航能力,同时设计充电保护电路。
2、软件系统开发
情绪识别算法开发:基于深度学习技术,构建卷积神经网络模型用于面部表情识别,采集儿童语音,通过自然语言处理技术,提取关键词与情绪倾向,辅助情绪判断。
行为控制与反馈系统开发:根据识别到的情绪类型,设计对应的行为指令库和语音反馈库,通过编程实现机器狗动作和语音的精准控制。
人机交互界面开发:设计简洁、易用的人机交互界面,方便用户实时查看孩子的情况。
3、系统测试与优化
单元测试:对硬件模块和软件模块分别进行测试,验证各模块的功能是否符合设计要求,及时发现并解决硬件故障和软件漏洞。
集成测试:将硬件系统和软件系统进行整合,测试系统的整体运行效果,检查各模块之间的兼容性和协同工作能力。
四、特色与创新点
1、区别于单一维度的情绪识别方式,本项目融合面部表情、语音方面数据进行情绪判断,提高了情绪识别的全面性和准确性,能更精准地捕捉用户的真实情绪状态。。
2、情绪数据可视化与家长关怀:STM32将儿童情绪数据同步至微信小程序/网页端,以直观图表展示,家长可随时查看;当儿童出现持续负面情绪,系统通过小程序弹窗实时预警,兼顾便捷性与及时性。
3、基于用户的情绪类型和需求,提供定制化的行为和语音反馈。
4、项目整合了计算机科学、电子工程、心理学、机械设计等多个学科的知识,打破了学科壁垒,为大学生提供了跨学科实践的平台,培养综合型创新人才
五、学生获得的训练
§ 通过参与项目,学生会全程参与需求分析、硬件选型与采购、硬件电路设计与制作、软件编程与调试、系统集成与测试、项目总结与报告撰写整个研究过程,在这个过程中,学生将深入学习和掌握传感器技术、数据处理、系统集成等关键技术,提升解决实际问题的能力。学生需将计算机科学(深度学习、算法开发)、电子工程(硬件选型与电路设计)、心理学(情绪分类与反馈逻辑)等学科知识融会贯通,打破单一学科的知识边界。在此过程中,学生需要不断探索和创新,提出新的解决方案和优化方案,从而培养创新思维和解决问题的能力。通过项目实践,培养具备传感器技术、嵌入式系统和神经网络应用能力,有助于他们在未来的学术和职业发展中更加自信和从容地面对各种挑战。
§ 另外,项目需要团队成员之间的紧密合作和有效沟通,学生将学会如何在团队中发挥自己的优势,与团队成员共同完成任务。
六、预期成果
1、硬件成果:完成 “情绪机器狗” 原型机,具备多模态情绪识别(面部 + 语音)、自适应情绪反馈(动作 + 语音 ),硬件参数达标(如情绪识别准确率≥80%、动作响应延迟≤1秒),并形成《硬件设计手册》(含元器件清单、电路原理图、结构图纸)。?
2、软件成果:开发一套完整的软件系统,包括情绪识别算法模型、机器行为控制程序、支持功能设置与数据查看,软件可正常运行且无明显漏洞,形成《软件使用说明书》。
· 专业背景:主要面向电子信息、电科、自动化等专业大二及以上年级的学生。这些专业的学生具备与项目相关的专业知识和技能,有利于项目的深入研究和实施。
· 基础知识:要求成员具备电路、单片机以及良好的编程能力。
能力:除了专业知识外,还要求成员具有良好的团队协作能力、人际交往能力和分析问题的能力。