logo资料库

基于姿态估计的实时跌倒检测算法.pdf

第1页 / 共7页
第2页 / 共7页
第3页 / 共7页
第4页 / 共7页
第5页 / 共7页
第6页 / 共7页
第7页 / 共7页
资料共7页,全文预览结束
基于姿态估计的实时跌倒检测算法 于乃功, 柏德国 引用本文: 于乃功, 柏德国. 基于姿态估计的实时跌倒检测算法[J]. 控制与决策, 2020, 35(11): 2761-2766. 在线阅读 View online: https://doi.org/10.13195/j.kzyjc.2019.0382 您可能感兴趣的其他文章 Articles you may be interested in 基于强化学习的小型无人直升机有限时间收敛控制设计 Finite time control based on reinforcement learning for a small-size unmanned helicopter 控制与决策. 2020, 35(11): 2646-2652 https://doi.org/10.13195/j.kzyjc.2019.0328 基于行为流图的可信交互检测方法 Trustworthy interaction detection method based on user behavior flow diagram 控制与决策. 2020, 35(11): 2715-2722 https://doi.org/10.13195/j.kzyjc.2018.1618 基于不变网络模型和故障注入的分布式信息系统故障溯源方法 Fault source location algorithm for distributed information system based on invariant network and fault injection 控制与决策. 2020, 35(11): 2723-2732 https://doi.org/10.13195/j.kzyjc.2019.0214 一种新的基于标签传播的复杂网络重叠社区识别算法 A novel algorithm for overlapping community detection based on label propagation in complex networks 控制与决策. 2020, 35(11): 2733-2742 https://doi.org/10.13195/j.kzyjc.2019.0176 微型无人机集群低时延组网规划方法 A low delay networking planning method for micro UAV swarm 控制与决策. 2020, 35(11): 2696-2706 https://doi.org/10.13195/j.kzyjc.2018.1549
第 35 卷 第 11 期 2020 年 11月 控 制 与 决 策 Decision Control and Vol.35 No.11 Nov. 2020 基于姿态估计的实时跌倒检测算法 于乃功y, 柏德国 (1. 北京工业大学 信息学部,北京 100124;2. 计算智能与智能系统北京重点 实验室,北京 100124;3. 数字社区教育部工程研究中心,北京 100124) 摘 要: 为了快速、准确地检测老年人跌倒事件的发生, 给出一种基于姿态估计的实时跌倒检测算法. 首先利用基 于深度学习的人体姿态估计算法得到人体关节点的坐标; 然后, 通过计算人体质心点的下降速度、跌倒后颈部关 节点的纵坐标值是否大于阈值、以及肩部和腰部关节点的相对位置关系来判断跌倒是否发生. 所给出的跌倒检测 算法利用单目相机进行检测, 便于以嵌入式方式应用于机器人. 实验结果表明, 所提出算法与当前先进方法相比 取得了较好的效果. 关键词: 跌倒实时检测;深度学习;人体姿态估计;单目相机;机器人;嵌入式 中图分类号: TP391 DOI: 10.13195/j.kzyjc.2019.0382 引用格式: 于乃功, 柏德国. 基于姿态估计的实时跌倒检测算法[J]. 控制与决策, 2020 , 35 (11 ): 2761-2766. 开放科学(资源服务) 标识码(OSID): 文献标志码: A Real-time fall detection algorithm based on pose estimation YU Nai-gongy, BAI De-guo (1. Faculty of Information Technology,Beijing University of Technology,Beijing 100124,China;2. Beijing Key Laboratory of Computational Intelligence and Intelligent System,Beijing 100124,China;3. Digital Community Ministry of Education Engineering Research Center,Beijing 100124,China) Abstract: In order to quickly and accurately detect the occurrence of falls in the elderly, this paper presents a real-time fall detection algorithm based on pose estimation. Firstly, the human pose estimation algorithm based on deep learning is used to obtain the coordinates of the joint point. Then, by calculating the falling speed of the centroid point when the human body falls, whether the ordinate value of the neck joint point after the fall is greater than the threshold, and the relative positional relationship of the shoulder-waist joint point in the image, whether the fall occurs is determined. The algorithm uses a monocular camera to detect, which is easily used in an embedded way for robots. The experimental results show that compared with the current advanced methods, the proposed algorithm has achieved good results. Keywords: fall detection in real-time;deep learning;human pose estimation algorithm;monocular camera;robots; embedding 0 言 在美国, 从 2007 年到 2016 年老年人因跌倒而死 亡的人数呈上升趋势, 并且在2016 年间, 年龄大于64 岁的美国老年人中有29 668 人因跌倒而死亡[1]. 在我 国, 2014 年全国伤害监测系统数据显示, 造成老年人 因非故意伤害就诊的首要原因是跌倒/坠落[2]. 如果 老年人跌倒后能够及时得到治疗, 则可以降低 80 % 的死亡风险和 26 % 的长期住院治疗风险[3], 所以根 据上述问题设计一套老年人跌倒实时检测系统很有 意义. 目前, 最常见的跌倒检测方法主要有 3 种: 基于 环境设备的检测方法、基于穿戴式传感器的检测方 法以及基于视觉识别的检测方法. 基于环境设备的 检测方法[4-6] 根据人体跌倒时形成的环境噪声进行 检测,这种方法通过感知物体压力和声音的变化检测 跌倒, 误报率较高, 实际生活中很少采用此方法. 基于 穿戴式传感器的方法[7-10] 利用加速度计和陀螺仪来 进行跌倒检测. 文献[9] 中利用加速度计和陀螺仪获 取信号, 通过SVM 分类器判断是否跌倒, 获得了93 % 的准确率. 文献 [11] 利用三轴加速度计获取信号, 通 过多种机器学习算法进行分类判断是否跌倒. 此方 法的缺点是长时间配戴传感器影响人的生活舒适度, 收稿日期: 2019-03-29;修回日期: 2019-07-27. 基金项目: 国家自然科学基金项目(61573029);国家重点研发计划项目(2017YFC0209905). 责任编委: 薛建儒. y 通讯作者. E-mail: yunaigong@bjut.edu.cn.
2762 控 制 与 决 策 第35 卷 并且由于老年人记忆力不好容易忘记佩戴,从事复杂 活动时误报率较高. 基于视觉识别的检测方法从利 用传感器种类的角度可分为两类: 一类是使用 RGB 相机提供的二维信息进行检测[12-13]; 另一类使用深 度相机 Kinect 提供的骨架关节点[14-15] 进行检测. 文 献[16] 利用摄像头捕获视频, 然后通过帧差法、卡尔 曼滤波、光流法提取有效的背景信息并作为KNN 分 类器的输入, 实现了96 % 的精确率. 文献[17] 为了保 护老年人的隐私, 提出了一种光学匿名图像传感系 统,然后用卷积神经网络和自动编码器进行特征提取 和分类. 王君泽等[15] 利用 Kinect 提供的 6 个骨架点, 实时计算 6 个骨架点的空间位置等参数来判定人体 摔倒, 但相对于单目相机而言, 它的体积较大, 价格昂 贵,不适合嵌入式集成和批量使用. 当前,使机器人具备跌倒检测功能的研究工作较 少. 文献[18] 中利用电脑控制机器人并用Kinect 进行 跌倒检测, 精确率为80 %. 文献[19] 中利用单目相机 通过检测人体的外部轮廓获取轮廓比例,进行姿势标 注以判断跌倒事件的发生. 根据上述分析, 为了使跌倒检测方法具备实时 性, 并且做到跌倒检测设备能够嵌入式应用, 本文利 用普通单目相机, 从一个新的角度进行跌倒检测. 首 先利用人体姿态估计算法,实时计算得到人体的骨架 图和关节点坐标; 然后将得到的坐标结合提出的跌 倒检测算法进行检测. 实验结果表明了该方法的有 效性. 1 跌倒检测算法 算法首先利用 Cao 等[20] 提出的使用部分亲和 域的实时多人 2D 姿态估计算法, 实时获取人体的 骨架图, 得到的18 个关节点如图1 所示. 算法用到了 0 (鼻)、1 (颈)、2 (左肩)、5 (右肩)、8 (左腰)、11 (右腰) 这 6 个关节点. 其次, 通过对获取到的骨架图遍历每 个关节点,实时计算得到各个关节点在图像中的坐标 (xi; yi),下标i代表第i个关节点. 图 1 姿态估计算法获取到的18 个关节点 为了提高跌倒检测算法的通用性,分别研究单目 相机安装在固定位置处的跌倒检测和单目相机安装 在机器人上的跌倒检测方法. 1.1 单目相机安装在固定位置处的跌倒检测 本文提出的跌倒检测算法包括3 个判定条件, 其 判定步骤如图2所示. 图 2 跌倒检测算法判定步骤 1.1.1 判定条件1 为了保证检测的稳定性, 同时取0、1、8 这3 个关 节点的坐标,计算其坐标的平均值并作为人体质心点 的坐标值. 算法每 10 帧计算一次质心点纵坐标的移 动速度 v. 如果 v 大于一定的阈值 vth, 则满足判定条 件1. v 的表达式为 ∑ ∑ yi10 3(t10 t1) i i v = yi1 ; i = 0; 1; 8: (1) 其中: yi10 代表第 10 帧时第 i 关节点的纵坐标, yi1 代 表第 1 帧时第 i 关节点的纵坐标, t10 t1 代表从第 1 帧到第10帧所用的时间. 判定条件1的表达式为 (2) 为了确定阈值 vth, 5 个实验者分别模拟 15 次人 v ⩾ vth: 体缓慢跌倒,然后求平均值得到vth,即 5∑ 15∑ vth = 1 75 vij: i=1 j=1 (3) FḄτ΅ʖᔲᜧḄ█Ƿ?᎔Ȝ⚠Zᐵ⁚FḄᙶ᪗ǷʖᔲᜧAḄᨬᜧ ?᎔ȜPZῪZᐵ⁚Fᙶ᪗ḄǷʖᔲᜧḄ█Ƿ?ᑨ᎔ᨵ᎔ᑨᩩ1ᑨᩩ2ᑨᩩ3ʖᔲʖᔲᔲʖ
第11 期 于乃功 等: 基于姿态估计的实时跌倒检测算法 2763 其中: i 代表第 i 个人, j 代表第 j 次实验. 经过实验, 将 vth 设定为125 pixel/s, 表示跌倒时每1 s 下降125 个像 素距离,其中pixel代表像素. 1.1.2 判定条件2 以 v ⩾ vth 作为判定跌倒是不充分的, 这时会有 很大的误判情况,例如人体下蹲系鞋带、捡物品等. 因 此, 为了排除上述情况, 在人体下蹲时获取 1 关节点 在图像中的最大高度 Hth. 判定条件1 满足后每10 帧 获取1 次 y1, 如果在一定时间内 y1 始终大于 Hth, 则说 明可能发生了跌倒. 判定条件2的表达式为 y1 ⩾ Hth: (4) 人体与相机不同距离时,关节点在图像中的高度 yi 是不同的. 人体与相机较近时, Hth 比较大. 随着人 距离相机逐渐变远, Hth 会逐渐减小, 这样也会导致 不同的 Hth. 所以首先需要判断人与相机的距离, 然 后确定此距离下的 Hth. 判断人与相机的距离, 本文 给出一种利用单目相机测距的新方法. 人与相机较近时, 1 关节点与 8 关节点两点之间 的欧氏距离 l 较大. 随着人与相机越来越远, l 会逐渐 减小, 因此可用来判断人与相机的距离 L. l 的具体计 算公式为 √ (x1 x8)2 + (y1 y8)2: (5) 由上述分析可知, l、Hth 和 L 之间呈线性关系, 因 此, 三者之间可建立线性回归模型. L 与 l 之间的表达 式为 l = L(li) = wli + b; (6) 其中 i 代表第 i 次. 确定 w 与 b 的最优值可用最小二乘 估计算法求解,即 m∑ ; b (w ) = arg min (L(li) Li)2; (7) (8) ; (9) (10) m∑ (w;b) i=1 (Li wli b)2: m∑ )2 li i=1 m∑ ( m∑ i=1 li Li(li l) ( m∑ ) i=1 2 1 m Li li ; i=1 E(w;b) = i=1 最优解如下式所示: w = 1 m b = m∑ li. i=1 其中l = 1 m 同 理 可 得 L 与 Hth 之 间 的 关 系, 由 此 确 定 了 Hth. 但是, 当人快速坐在地上或下蹲长时间不起时, 判定条件2 会造成误判, 因为这时1 关节点的纵坐标 始终大于Hth,所以需要进一步判定. 1.1.3 判定条件3 如图 3 所示, 人体跌倒后, 左右肩与左右腰的关 节点的纵坐标的差值是非常小的, 因此, 可用此条件 判定人体是否跌倒. 判定条件3的表达式为 jy2 y8j < h: (11) 式 (11) 中 h 是 5 个实验者分别模拟 20 种跌倒后 不同的姿势, 20 种姿势包括前倒姿势6 种, 后倒姿势6 种,随机侧倒姿势8种. h的表达式为 yij8 5∑ 20∑ jyij2 j i=1 j=1 h = (12) 其中: i 代表第 i 个人, j 代表第 j 次实验. 经过实验, h 设定为140 pixel. 100 : 图 3 判定条件3 示意 1.2 单目相机安装在机器人设备上的跌倒检测 由于机器人高度的限制, 相机安装位置过低有 时会获取不到所用的 6 个关节点. 为了获取到全身 的骨骼点图, 这里增加了第2 个相机以便联合进行判 断. 第2 个相机比第1 个相机高出一定的距离, 第1 个 相机为仰视角度, 第 2 个相机为俯视角度. 设置的具 体参数将在实验结果中说明. 运用两个相机联合判 断的方法是: 首先利用第1 个相机检验是否满足前两 个判定条件; 如果前两个判定条件满足, 则开启第 2 个相机检测是否满足第3 个判定条件; 如果这3 个条 件全都满足,则说明跌倒发生了. 2 实验结果与分析 测试的摔倒情况分为前倒、后倒、随机地向各方 向侧倒、下蹲系鞋带、缓慢或者快速坐在椅子上. 实 验者一共 5 人, 为了增强实验说服力, 选取的实验者 身高分别为 1.60 m、1.72 m、1.78 m、1.83 m、1.9 m, 所提出的算法只检测人体的骨架图,算法效果与实验 者的体型、性别、年龄因素无关. 每人分别对上述5 种情况做10 次实验. 为了增强算法的鲁棒性, 实验模 仿家居环境, 实验室的环境下摆放书桌、杂物、椅子 等. 实验中设置的视频的分辨率为1 9201 080. HhH > h
2764 控 制 与 决 策 第35 卷 2.1 相机安装在固定位置处的实验 第1 个实验, 将相机安装在距地面1.55 m 的高度, 俯视角度为 20◦. 图4 表示的是相机安装在固定位置 时成功检测跌倒的效果. 表1 为相机安装在固定位置 时具体实验数据结果. 检测跌倒的效果. 表3 为相机安装在机器人上的实验 数据结果. 图 5 相机在机器人设备上的检测结果 表 3 相机安装在机器人上的实验数据 实验者(每人进行10 次 成功检测出的次数) 2 9 9 9 10 10 3 9 8 9 10 10 4 8 8 10 10 10 5 9 9 9 10 10 成功率 / % 90 86 90 98 100 实验场景 1 前倒 后倒 10 9 8 9 坐在座位上 10 侧倒 下蹲 由以上实验结果可知: 相机在固定位置时实现 了 94.8 % 的平均检测精度; 相机在机器人设备上时, 实现了92.8 %的平均检测精度. 为了验证本文算法的有效性, 将本文算法与其 他基于视觉传感器的跌倒检测算法的性能进行对 比. 评价的准则采用文献[16]给出的度量标准: 1) 真阳性(true positive): 是跌倒的实验中被检测 为跌倒的次数; 2) 假阳性(false positive):不是跌倒的实验中却被 检测为跌倒的次数; 成功率 / % 3) 真阴性(true negative):不是跌倒的实验中没有 图 4 相机在固定位置时的检测结果 表 1 相机安装在固定位置时的实验数据 实验者(每人进行10 次 成功检测出的次数) 2 9 7 8 9 10 3 9 8 9 10 10 4 8 8 10 9 10 5 9 7 8 10 10 成功率 / % 86 78 88 94 100 实验场景 1 后倒 前倒 8 9 9 9 坐在座位上 10 侧倒 下蹲 由表 1 的结果可知, 检测后倒时的成功率最低, 因为后倒有时会得不到身体的关节点. 为此, 在同一 高度处的对面方向即人体后方安装第2 个相机, 用两 个相机同时检测, 如果有一个相机检测到跌倒, 则判 定为跌倒. 表 2 为安装两个相机时的测试结果. 实验 数据表明,用两个相机联合检测,提高了检测的精度. 表 2 两个相机安装在固定位置时的实验数据 实验场景 实验者(每人进行10 次 成功检测出的次数) 1 2 3 4 侧倒 后倒 前倒 9 10 10 9 坐在座位上 10 9 9 10 10 10 2.2 相机安装在机器人上的实验 10 9 8 10 10 9 9 9 10 10 下蹲 5 9 8 10 10 10 92 90 94 98 100 第 2 个实验, 模拟相机安装在机器人设备上. 将 第 1 个相机置于距地面 30 cm 高度处, 仰视角度为 40◦. 第 2 个相机置于距地面 75 cm 高度处, 俯视角度 为25◦. 图5 表示的是相机安装在机器人设备上成功 被检测为跌倒的次数; 4) 假阴性 (false negative): 是跌倒的实验中却没 有被检测为跌倒的次数. 根据上述指标可得到算法的敏感度(sensitivity)、 特异度(specificity)和精确率(accuracy)分别为 sensitivity = specificity = TP TP + FN ; TN TN + FP ; accuracy = TP + TN TP + FP + FN + FN : (13) (14) (15)
第11 期 于乃功 等: 基于姿态估计的实时跌倒检测算法 2765 基于以上性能指标, 各算法的对比结果如表4 所 示, 显然, 本文方法的特异性均优于其他方法. 虽然本 文方法有两个指标均次于文献[16] 的方法1, 但是文 献[16] 中使用帧差法提取人体背景, 这种方法容易受 到周围运动物体的影响, 例如人的周围有动物等, 所 以其没有做这种干扰性的实验; 而本文方法只检测 人类的骨架图, 不受周围运动物体的影响. 另外, 基于 帧差法的背景提取,如果运动目标在相邻帧之间位置 变化缓慢, 则目标很难检测出来, 且此种方法相机只 能安装在固定位置处. 文献[22, 24] 是用深度相机实 现的, 其成本相较于普通RGB 相机高昂, 体积大, 不便 于嵌入式. 综合成本和性能指标考虑, 本文方法有一 定优越性. 另外, 上述方法都不能用于机器人设备, 而 本文方法则适用. 表 4 本文方法与其他方法的对比 方法 敏感度 / % 特异度 / % 精确率 / % 帧差法 + 卡尔曼滤波 + 光流[16] 多特征组合[21] HMM 模型[22] 3D CNN + 自动编码器[17] 光流 + 声音[23] 深度图像特征 + SVM[24] 本文方法 96 未知 未知 93.3 90 100 92 97.6 未知 93.3 92.8 92 97.5 99 96.9 90.9 95.24 未知 未知 未知 94.8 传感器 RGB RGB Kinect RGB + 热成像 RGB Kinect RGB 本文给出的跌倒检测算法的缺点一是在遮挡严 重的情况下效果不是很理想, 二是相机所处的位置 太低时有时会获取不到人体骨架图从而导致检测失 败. 为了改善系统效果, 提升检测精度, 下一步的工作 将在以下方面进行: 1) 改善人体姿态估计算法,增加人体骨架图检测 的精度,进一步降低误报率; 2) 单个相机视野不开阔,且在有障碍物的情况下 有时检测不到人体骨架图,因此可尝试用多个相机从 多角度检测,以提高跌倒检测的成功率; 3) 模拟跌倒场景种类较为简单,需增加各种场景 下的跌倒实验. 3 结 为了检测到老年人在居家生活条件下跌倒事件 的发生, 本文提出了基于人体姿态估计的跌倒检测 算法. 通过实时检测人体骨架得到关节点在图像中 的坐标, 然后结合3 个判定条件来确定跌倒事件的发 生. 实验表明, 该方法适用于相机安装在固定位置处 和相机安装在机器人设备上,所使用的检测设备便于 嵌入式应用,提升了实用性. 参考文献(References) [1] Burns E R, Kakara R. Deaths from falls among persons aged ⩾ 65 years — United States, 2007-2016[J]. Morbidity and Mortality Weekly Report, 2018, 67(18): 509-514. [2] 耳玉亮, 段蕾蕾, 叶鹏鹏, 等. 2014 年全国伤害监测系 统老年人非故意伤害病例特征分析 [J]. 中国健康教 育, 2016, 32(4): 312-317. (Er Y L, Duan L L, Ye P P, et al. Analysis on the characteristics of unintentional injuries among the elderly from Chinese national injury surveillance system, 2014[J]. Chinese Journal of Health Education, 2016, 32(4): 312-317.) [3] Noury N, Rrmeau P, Bourke A K, et al. A proposal for the classification and evaluation of fall detectors[J]. IRBM, 2008, 29(6): 340-349. [4] Mohamad Daher, Maan El Badaoui El Najjar, Ahmad Diab, et al. Automatic fall detection system using sensing floors[J]. International Journal of Computing & Information Sciences, 2016, 12(1): 75-82. [5] Minvielle L, Atiq M, Serra R, et al. Fall detection using smart floor sensor and supervised learning[C]. The 39th Annual International Conference of the IEEE Engineering in Medicine and Biology Society (EMBC). Seogwipo, 2017: 3445-3448. Li Y, Ho K C, Popescu M. A microphone array system for automatic fall detection[J]. IEEE Transactions on Biomedical Engineering, 2012, 59(5): 1291-1301. [6] [7] Wang F T, Chan H, Hsu M, et al. Threshold-based fall detection using a hybrid of tri-axial accelerometer and gyroscope[J]. Physiological Measurement, 2018, 39(10): 105002. [8] Ranakoti S, Arora S, Chaudhary S, et al. Human fall detection system over IMU sensors using triaxial accelerometer[J]. Computational Intelligence: Theories, Applications and Future Directions: Volume I, 2018, 798: 495-507. [9] Kumar V S, Acharya K G, Sandeep B, et al. Wearable sensor-based human fall detection wireless system[J].
2766 控 制 与 决 策 第35 卷 Wireless Communication Networks and Internet of Things, 2018, 493: 217-234. optical level anonymous image sensing system[J]. Optics & Laser Technology, 2019, 110: 44-61. [10] Mehmood A, Nadeem A, Ashraf M, et al. A novel fall detection algorithm for elderly using SHIMMER wearable sensors[J]. Health and Technology, 2019, 9(4): 631-646.. [11] Sara Zulj, Goran Seketa, Igor Lackovic. Accuracy comparison of ML-based fall detection algorithms using two different acceleration derived feature vectors[C]. IFMBE Proceedings of World Congress on Medical Physics and Biomedical Engineering 2018. Singapore: Springer, 2018: 481-485. [12] 宋菲, 薛质. 基于Open CV 的老人跌倒检测的设计和 实现[J]. 信息技术, 2015, 39(11): 137-139. (Song F, Xue Z. Design and implementation of fall detection for elder person based on Open CV[J]. Information Technology, 2015, 39(11): 137-139.) [13] Yu M, Gong L, Clifford R, et al. A monocular camera based person-specific fall detection system exploiting deep neural network aided unsupervised[C]. IEEE International Conference on Acoustics, Speech, and Signal Processing. Brighton, 2019. [14] Patsadu O, Watanapa B, Dajpratham P, et al. Fall motion detection with fall severity level estimation by mining kinect 3D data stream[J]. The International Arab Journal of Information Technology, 2018, 15(3): 378-388. [15] 王君泽, 朱小龙, 瞿畅. 基于 Kinect 骨架追踪的人体 摔倒自动检测 [J]. 上海交通大学学报, 2015, 49(9): 1359-1365. (Wang J Z, Zhu X L, Qu C. Automatic fall detection using human skeleton tracking algorithm based on kinect sensor[J]. Journal of Shanghai Jiaotong University, 2015, 49(9): 1359-1365.) [16] De Miguel K, Brunete A, Hernando M, et al. Home camera-based fall detection system for the elderly[J]. Sensors, 2017, 17(12): 2864. [17] Ma C, Shimada A, Uchiyama H, et al. Fall detection using [18] Sumiya T, Matsubara Y, Nakano M, et al. A Mobile robot for fall detection for elderly-care[J]. Procedia Computer Science, 2015, 60: 870-880. [19] Sun P F, Ming A, Yao C, et al. Fall detection system based on mobile robot[J]. Image and Graphics Technologies and Applications, 2018, 875: 263-271. [20] Cao Z, Simon T, Wei S E, et al. Realtime multi-person 2D pose estimation using part affinity fields[C]. The IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Hawaii, 2017: 7291-7299. [21] Glen Debard, Peter Karsmakers, Mieke Deschodt, et al. Camera based fall detection using multiple features validated with real life video[C]. Workshop Proceedings of the 7th International Conference on Intelligent Environments. Nottingham, 2011: 441-450. [22] Triantafylou D, Krinidis S, Ioannidis D, et al. A real-time fall detection system for maintenance activities in indoor environments[J]. IFAC-PapersOnLine, 2016, 49(28): 286-290. [23] Geertsema E E, Visser G H, Viergever M A, et al. Automated remote fall detection using impact features from video and audio[J]. Journal of Biomechanics, 2019, 88: 25-32. [24] Panahi L, Ghods V. Human fall detection using machine vision techniques on RGB-D images[J]. Biomedical Signal Processing and Control, 2018, 44: 146-153. 作者简介 于乃功(1966), 男, 教授, 博士生导师, 从事计算智能 与智能系统、机器人学与机器人技术、机器视觉等研究, E-mail: yunaigong@bjut.edu.cn; 柏德国(1995), 男, 硕士生, 从事智能机器人、计算机 视觉的研究, E-mail: baideguo@emails.bjut.edu.cn. (责任编辑:李君玲)
分享到:
收藏