室内 GPS 信号受到阻隔,尤其时车库场景无线接入点 AP 较为稀疏,室内定位很难通过 GPS 或位置指纹等技术实现。行人行位推算技术(Pedestrian Dead Reckoning,PDR)可以有效解决这一问题,它利用手机内置传感器收集数据,通过轻量级低功耗算法运行框架和技术,实现稳定可靠、高精度的方位推算计算。
输入为 CSV 格式,其每一行都有数据值及采集到该数据时的时间(从开始收集计算),以加速度计为例:
"Time (s)","Acceleration x (m/s^2)","Acceleration y (m/s^2)",
"Acceleration z (m/s^2)"
9.364549000E-3,1.003170490E0,3.543418407E0,7.366958618E0
1.136538300E-2,9.696516991E-1,3.600879431E0,7.357381821E0
1.336699700E-2,9.696516991E-1,3.620033026E0,7.343016624E0
输入数据包括:
-
Accelerometer.csv, Linear Accelerometer.csv
:50Hz 采集的加速度和线加速度,单位为$m/s^2$ -
Magnetometer.csv
:50Hz 采集的磁力计读数,单位为$\mu\text{T}$ -
Gyroscope.csv
:50Hz 采集的陀螺仪读数,单位为$\text{rad}/s$ -
Location_input.csv
:前 10% 时间的 1Hz 的 GPS 位置读数:- 经纬度
Latitude, Longitude
,单位为$\degree$ - 高度
Height
,单位为$m$ - 速度
Velocity
,单位为$m/s$ - 方位角
Direction
,单位为$\degree$ - 垂直和水平精度
Horizontal Accuracy, Vertical Accuracy
,单位为$m$
- 经纬度
其中加速度、线加速度、磁力计、陀螺仪均有三个维度上的读数:
输出为后 90% 时间的 1Hz 的 GPS 位置读数中的经纬度和方位角,即不需要输出速度、高度和精度。
输出也是 CSV 格式。输出文件 Location_output.csv
的前 10% 将复制 Location_input.csv
,并填充其后 90% 的经纬度和方位角。
数据收集工作由多组合作完成,使用软件 phyphox(中文名:手机物理工坊)。
针对室内场景,我们在多种设备上收集并使用了以下三种状态采集到的数据:
- 步行,手机拿在手上,共 45 组
- 步行,手机放在背包内,共 4 组
- 步行,手机放在裤兜内,共 11 组
每种数据都收集了多组。在单次收集过程中,手机大部分时间保持在同一个状态下。
此外我们还收集了一些不太可能出现在室内的运动状态,用于测试模型的迁移性能:
- 骑车,手机拿在手上,共 5 组
- 骑车,手机放在背包内,共 1 组
- 跑步,手机放在裤兜内,共 4 组
- 骑车,手机放在裤兜内,共 7 组
收集到的数据(及代码在其上的运行结果)可以在 这里 获取。
地址为: https://box.nju.edu.cn/f/173d68b2c9b44146a46b/
由于模型的特点,我们没有使用训练集,不需要进行数据划分,收集的所有数据都用于测试。
经过分析,我们发现 PDR 算法的关键只有两点:
- 如何预测出任给一个时间点的已走过的 路程。
- 如何预测出任给一个时间点的对应 前进方向。
我们很容易猜想 路程 在 理论上 应该是通过 加速计加速度 二重积分得到的,方向应该是经过 陀螺仪角速度 一重积分得到的。
但是事实上理论和实践有着很大的差距,我们测量出来的 加速度 和 角速度 总是在不断的振荡,与真实数据存在非常大的误差,这是因为:
- 手机并不是固定在人的身上的,例如手机拿在手上时,就会随着手的活动不断摇摆振荡;
- 手机自带的加速度计和陀螺仪就存在着一定的误差。
所以根据积分来计算出路程和方向的想法是不可行的,我们需要思考准确性和稳定性更强的方案。
这里我们发现:
- 加速度的幅值的振荡频率和行人的步伐振荡频率强相关;
- 磁力计的磁场强度与前进方向强相关(磁场强度方向指向北方);
- 我们拥有前 10% 的数据,可以从中学得很多有用的信息,比如每走一步的长度,再比如初始的前进方向。
根据这三个线索,我们制定了下面的 PDR 算法思路。
总体思路为步伐检测和方向预测。
我们需要在通过传感器得来的数据判断当前行人是否在行走,什么时侯迈出步子,行走的步幅大小为多少,前进的方向又是多少。
在知道上面这些问题的答案后,我们便可以通过下面的公式来预测出行走的坐标点轨迹了。
公式:
(
由于输入和输出的位置信息是以经纬度为准的,而经纬度作为位置信息有一些缺点:
- 经纬度是绝对位置,不是相对位置,后续处理比较困难;
- 经纬度的单位长度的实际物理长度过大,比如经纬度的一度可能就对应着几十或上百公里,而我们实际的行走范围可能不会超过一公里;
- 经纬度是在球形地球的假设上进行计算的,难以直接转换成以米为单位,也难以转到平面坐标系。
针对上面问题,我们使用了一个公式:
对经纬度进行转换,其中
而
经过经纬度转换后,我们使用 test_case0
对应平面坐标系,并且每隔一段画出对应的前进方向的箭头,我们可以看出前进方向和我们转换后的
我们的输入有五个文件(忽略气压计数据),分别为:
Accelerometer.csv
(加速度计数据,50 Hz)Linear Accelerometer.csv
(线性加速度计数据,50 Hz)Gyroscope.csv
(陀螺仪数据,50 Hz)Magnetometer.csv
(磁力计数据,50 Hz)Location_input.csv
(GPS 位置信息,1 Hz)
可以看出,GPS 位置信息和其他的输入数据的频率并不相同,它们的频率 在理论上 是 1: 50 的关系。但是由于每个传感器的周期并不完全同步,也存在着时钟周期误差的影响,最后导致实际记录的数据实际上并不是严格 1: 50 对齐的,有可能每一个文件的数据长度都各不相同。
数据不对齐以及长度不一致的话,在数据处理和计算时会造成各种错误,甚至代码无法执行,所以我们首先一个很重要的任务就是对齐数据,让它们数据长度严格保证是 1: 50 的比例,且在时间轴上(或者说在同一个下标下)严格对齐。
在这里,我们使用了最近邻插值的方法,以 Location_input.csv
的时间轴为基准,进行了最近邻插值,对数据进行了对齐处理。大致算法如下:
- 将
Location_input.csv
的 1 Hz 的时间轴time_location
线性扩充成 50 Hz 的时间轴time
, 例如time_locaiton = [1., 2.]
的话,便会扩充成time = [1., 1.02, 1.04, ..., 1.98, 2., 2.02, 2.04, ..., 2.98]
, 其中len(time) = 100
。 - 将其他 50 Hz 的数据通过最近邻插值对齐到
time
时间轴上,最近邻插值即为每一个点匹配到最近的样本点。例如Accelerometer.csv
的数据[[1.01, 1], [1.02, 2], [1.03, 3], [1.04, 4]]
可能就会被最近邻插值为[[1.00, 1], [1.02, 2], [1.04, 4]]
。
通过最近邻插值,我们就能保证数据是严格的 1: 50 沿着时间轴对齐了。例如 test_case
的数据经过数据预处理后的尺寸如下:
test_case.time_location.shape = (601,)
test_case.time.shape = (30050,)
最近邻插值的代码为:
def nearest_neighbor_interpolation(time, time_data, data):
'''
使用最近邻插值获取新的 data_interp
'''
data_interp = []
# 当前下标 i
i = 0
for t in time:
while i < len(time_data) - 1 and t >= time_data[i + 1]:
i += 1
data_interp.append(data[i])
return np.array(data_interp)
我们封装了一个类 TestCase
,用于加载数据、数据预处理、数据抽象和数据保存。TestCase
类保存在 dataloader.py
文件下,部分接口如下:
# 通过文件路径加载一个 TestCase
test_case = TestCase("test_case0")
# 可以对 TestCase 进行切片, 单位为秒
new_test_case = test_case.slice(100, 500)
# 1 Hz 的时间轴
print(test_case.time_location)
# 50 Hz 的时间轴
print(test_case.time)
# 加速度数据
print(test_case.a)
print(test_case.a_x)
print(test_case.a_y)
print(test_case.a_z)
# 加速度幅值
print(test_case.a_mag)
# 磁力计数据
print(test_case.m)
print(test_case.m_x)
print(test_case.m_y)
print(test_case.m_z)
# 必然存在的前 10% 的数据 (Location_input.csv)
print(test_case.x)
print(test_case.y)
print(test_case.direction)
# 对应的长度
print(test_case.len_input)
# 可能存在的验证数据 (Location.csv)
if test_case.have_location_valid:
print(test_case.x_valid)
print(test_case.y_valid)
print(test_case.direction_valid)
# 可能存在的输出数据 (Location_output.csv)
if test_case.have_location_output:
print(test_case.x_output)
print(test_case.y_output)
print(test_case.direction_output)
# 将结果存储到 test_case 中, 会保存成 "Location_output.csv" 文件
test_case.set_location_output(x_output, y_output, direction_output)
# 评估模型, 输出 Distances error, Direction error, Direction ratio
test_case.eval_model()
# 画出 test_case 的路线图像
test_case.draw_route()
并且在数据预处理后,还会输出一个对齐了的数据对应的 CSV 文件 preprocessed.csv
,格式大致为:
t,a_x,a_y,a_z,la_x,la_y,la_z,gs_x,gs_y,gs_z,m_x,m_y,m_z
0.0,-1.2,5.2,8.2,-0.4,-0.0,-0.2,-0.2,0.4,0.1,-31.0,-22.4,-29.8
0.0,-1.2,5.2,8.2,-0.4,-0.0,-0.2,-0.2,0.4,0.1,-31.0,-22.4,-29.8
步伐检测主要分为两个部分:
- 脚步提取:行人何时向前迈了一步
- 步幅估计:向前迈的一步有多长
需要的数据有:
- a_mag(Accelerometer):通过对加速度的数据求模得出一条震荡曲线;
- GPS 位置中前 10% 的前进方向数据(Location_input):我们可以通过前 10% 的前进方向数据。
手机在行人行走时会产生周期性晃动,加速度计数据可以反映步数特征。设备姿态的变化会影响三个轴上的加速度值,为了避免这种影响,选择加速度a_mag
的大小作为阶跃检测的标准。
使用 test_case0
中的部分时间段内的加速度幅度作为处理示例,未经处理的数据如下:
通过肉眼可以清晰的看出加速度的震荡具有规律性,较大峰值个数表示行人的可能步数。接着进行处理:
此时先用滤波器进行滤波,将波动变得更加光滑,消除小波峰:
代码:
### 滤波器
def filter(range,data):
filter = np.ones(range) / range
return np.convolve(data, filter, mode="same")
new_test_case = test_case.slice(10, 15)
### 对 a_mag 进行滤波
filtered_a = filter(10,new_test_case.a_mag)
滤波效果:
一般人的步频最大为 3 Hz ,设定 0.4 秒的间隔查找峰值,如果含有多个峰值,则其中含有假峰,选取波峰最大的那一个。
波峰采集效果:
在选取好候选波峰后,其中依然可能含有假波峰,例如行人行走过程中突然停下来,停下来的期间不可避免的会有微小振动,而这些振动中的波峰也会被识别到。此时对所有候选波峰求平均,并保留大于 平均值*0.8 的部分。
在原始数据中,我们已经拥有了经纬度坐标,借此我们可以计算出经纬度坐标间的距离;同时,我们也进行了脚步提取,知道什么时间迈出了一步。此时就需要通过前百分之十的数据,对步幅进行一个估计。
在预测前,我们发现并不知道行人每一步迈出的具体长度;而脚步波峰对应的时间 与 经纬度坐标的时间没有对齐,实际情况为:
处理这个问题的方式是通过相距的两个点间的距离,除以这两坐标点间的脚步数,作为这两点间脚步的步幅。这里我们设定一个超参数 distance_frac_step
,作为这两个坐标点间一共有包含多少坐标点,具体:
综上,解决了一定范围内步幅的标定。
步幅本身因人而异,它是一个与行人有关的变量。然而对于同一行人,步幅长短主要与行人的步频
步频
在使用线性回归模型表示时,发现前几秒提供的数据位置变化较大,对线性回归模型影响非常明显。
这里提供超参数 clean_data
,用来表示前 10% 的数据中被消除的可能干扰数据个数。
通过尝试线性回归模型,发现预测结果很不稳定,所以希望在其他的学习器下进行尝试。
得益于包装完善的学习器包,我们尝试了如下学习器:
def try_model(model: str):
if model == 'DecisionTree':
#### 3.1决策树回归####
from sklearn import tree
model_output = tree.DecisionTreeRegressor()
#### 3.2线性回归####
elif model == 'Linear':
from sklearn import linear_model
model_output = linear_model.LinearRegression()
#### 3.3SVM回归####
elif model == 'SVR':
from sklearn import svm
model_output = svm.SVR()
#### 3.4KNN回归####
elif model == 'KNeighbors':
from sklearn import neighbors
model_output = neighbors.KNeighborsRegressor()
#### 3.5随机森林回归####
elif model == 'RandomForest':
from sklearn import ensemble
model_output = ensemble.RandomForestRegressor(
n_estimators=20) # 这里使用20个决策树
#### 3.6Adaboost回归####
elif model == 'AdaBoost':
from sklearn import ensemble
model_output = ensemble.AdaBoostRegressor(
n_estimators=50) # 这里使用50个决策树
#### 3.7GBRT回归####
elif model == 'GradientBoosting':
from sklearn import ensemble
model_output = ensemble.GradientBoostingRegressor(
n_estimators=100) # 这里使用100个决策树
#### 3.8Bagging回归####
elif model == 'Bagging':
from sklearn.ensemble import BaggingRegressor
model_output = BaggingRegressor()
#### 3.9ExtraTree极端随机树回归####
elif model == 'ExtraTree':
from sklearn.tree import ExtraTreeRegressor
model_output = ExtraTreeRegressor()
else:
raise Exception('No such model.')
return model_output
其中包含了线性回归模型。 最后的预测效果将结合方向预测一起给出。
为了实现准确且稳定的前进方向预测功能,这里我们主要使用了三类数据:
- 磁力计数据(Magnetometer):北半球磁场方向始终指向北偏下,因此磁力计数据是预测前进方向的核心;
- 加速度计中的重力加速度数据(Accelerometer):我们对加速度计测出来的加速度进行处理,便能得到重力加速度数据,重力加速度数据是确定手机坐标轴朝向的核心;
- GPS 位置中前 10% 的前进方向数据(Location_input):我们可以通过前 10% 的前进方向数据。
注意,这里我们并没有用到陀螺仪的数据,因为陀螺仪测出来的是角速度,很容易被手机的摇摆振荡的角速度变化干扰,因此陀螺仪的数据几乎是不可用的,这里我们就舍弃了这个数据。
磁力计和加速度计记录的数据,会随着手机自身的摇摆而不断地振荡。这种振荡是不可避免的,因为它来源于:
- 行人行走时将手机拿在手上,手机随着手的摆动而振荡;
- 行人行走时将手机放在口袋里,手机随着大腿的摆动而振荡;
- 行人行走时将手机固定在某一位置(如打电话固定在耳旁),手机也依然会因为行走本身就不是匀速的,因而发生振荡。
手机的摇摆会引起手机坐标轴发生变化,进而导致测出来的磁力和加速度数据在 xyz 三个轴上不断地振荡变化。
为了消除这种振荡,我使用了一个截止频率相关参数 Wn
大致在 0.005 左右的 2 阶 Butterworth 低通滤波器,将磁力和加速度进行低通滤波,得到了更为平滑的磁力和加速度数据。由于加速度经过了低通滤波,几乎就等于被取了平均值,和重力无关的加速度被抵消,因此此时我们有 加速度
这里有一点很有趣的事实,除了这种对加速度低通滤波得到重力加速度的方法外,我们还可以通过 加速度计数据减去线性加速度计数据 这种方法,得到重力加速度
滤波器的代码为:
b, a = signal.butter(2, 0.005, 'lowpass')
m_x = signal.filtfilt(b, a, tc.m_x)
m_y = signal.filtfilt(b, a, tc.m_y)
m_z = signal.filtfilt(b, a, tc.m_z)
由图便可看出,经过低通滤波后的磁力和加速度均平缓了很多,可以直接用于后续的方向预测了。
这里有很关键的一点,这是作业文档中提到的一个假设,并且也是我们后续进行方向预测的核心假设:在实验过程中,手机大部分时间保持在同一个状态下(如一直拿在手上)。
有了这个假设,我们就可以推出一个更强的结论:经过低通滤波后的数据,可以等同于,手机相对于人没有发生任何旋转、位移与振荡时(即完全固定),记录下来的数据。
借助这个结论,我们就可以使用空间解析几何的方法,通过磁力计等数据预测出当前的前进方向。
首先我们有两个很重要的前提:
- 磁力计测出来的数据,是在手机坐标系下的一系列向量,并且该向量方向总是指向北偏下;
- 重力加速度,是在手机坐标系下的一系列向量,并且该向量方向总是指向下。
因此我们有以下的步骤:
第一步,首先用重力加速度向量
第二步,选出一个初始东向量,例如这里可以选取第 10% 个东向量作为初始东向量。
第三步,通过东向量与初始东向量的点乘除以模获取东向量和初始东向量的夹角,并转成角度制。
注意,此时我们并不知道
第四步,通过东向量与初始东向量叉乘后,与重力加速度点乘,得到对应的正负符号。
最后,我们就得到了前进方向与
最后的前进方向就是初始方向
还要记得最后取模
选取初始东向量
第一种是直接选用
第二种方法是,使用优化器,以及前 10% 的数据,最小化平均误差函数:
当然,这里的取绝对值函数
我们使用 scipy
的优化器,对应的优化代码为:
# 平均误差
error_fn = lambda x: np.mean(
direction_diff(direction_valid, (direction_offset + x)))
# 最小化误差获取最佳初始值
direction0 = scipy.optimize.minimize(error_fn, 0).x[0]
最后我们画出 test_case0
对应的图像,可以发现角度预测基本吻合。
我们使用的预测角度的方法有一个缺陷,就是我们依赖于一个核心假设:在实验过程中,手机大部分时间保持在同一个状态下(如一直拿在手上)。
如果没有这个假设,预测的前进方向角度就很难保证准确。
这是因为,如果手机没有一直保持在一个状态,而是进行了翻面等行为,则预测出来的方向则会发生极大的偏转。
这是因为,手机发生偏转后,手机坐标轴也发生了偏转,且这种偏转不能被低通滤波所抵消。由于手机坐标轴发生了恒定的偏转,理论上东向量
因此我尝试过使用旋转矩阵和逆旋转矩阵来解决这个问题:
def get_rotation_matrix(a, b):
'''
get rotation matrix from two unit vectors
'''
v = np.cross(a, b)
s = np.linalg.norm(v)
c = np.dot(a, b)
vx = np.array([[0, -v[2], v[1]], [v[2], 0, -v[0]], [-v[1], v[0], 0]])
return np.eye(3) + vx + vx @ vx * (1 - c) / s ** 2
但是最终发现还是无法解决这个问题,这便是在预测角度上所遇到的问题和困难。
由于本次实验假设: 在实验过程中,手机大部分时间保持在同一个状态下(如一直拿在手上)。这个问题便不存在了,因此我们也没有再过多地纠结下去。
在拥有前百分之十的训练数据下,我们可以通过 step_predictor
和 direction_predictor
训练出可以通过后百分之九十 传感器数据 来预测 步伐 和
前进方向。
$$
\begin{equation}
\begin{cases}
X_k = X_{k-1} + L_{k-1,k} \cdot \sin \theta_{k-1,k} \
Y_k = Y_{k-1} + L_{k-1,k} \cdot \cos \theta_{k-1,k} \
\end{cases}
\end{equation}
$$
前百分之十的数据保留原始数据,然后从最后一个坐标开始,每检测到走一步,便通过上述式(11)进行一次坐标点更新,知道没有步子为止。最后返回 (time,x,y) 的(n,3)矩阵。
在统合了步伐预测和角度预测之后,我们需要将最后结果,通过插值的方式,对齐到 Location_input.csv
的 time_location
的时间轴上。
这里我们采用了线性插值的方式,即找到需要插值的时间点,其对应的时间轴上最近的两个样本点,通过线性函数的方式,进行线性插值。
插值函数如下:
def linear_interpolation(time, time_data, data):
'''
使用线性插值获取新的 data_interp
'''
data_interp = []
# 当前下标 i
i = 0
for t in time:
while i < len(time_data) - 2 and t >= time_data[i + 1]:
i += 1
data_interp.append(data[i] + (data[i + 1] - data[i]) \
/ (time_data[i + 1] - time_data[i]) * (t - time_data[i]))
return np.array(data_interp)
基本与最近邻插值一致,因此这里也不过多赘述。
我们将插值得到的 x
和 y
通过逆变换得到经纬度 latitude
和 longitude
后,再加上预测出来的前进方向,便得到了最后的 Location_output.csv
。
本项目使用 Python 运行时,用 conda 管理 Python 环境,环境定义在代码文件中的 environment.yml
中。在计算机上安装 conda 后,可以执行以下命令创建运行环境:
conda env create -f environment.yml
代码结构如下:
│ batch_test.py: 批次测试, 用于对所有测试集进行测试
│
│ dataloader.py: 加载样例以及进行数据预处理的核心代码, 输出 TestCase 对象
│
│ direction_predictor.py: 前进方向预测的代码
│
│ environment.yml: 环境搭建的配置文件
│
│ merge_direction_step.py: 将前进方向和步伐预测结合的代码
│
│ pdr.py: 最后通过线性插值, 将最后预测结果整合的代码
│
│ README.md: 项目介绍
│
│ report.md: 项目报告的源文件
│
│ step_predictor.py: 步伐预测相关的代码
│
│ *.ipynb: 以 .ipynb 为后缀的文件, 均是我们用于打草稿和试验的代码文件
│
│ test.py: 作业自带的测试代码, 可以对一个样例进行性能测试
│
│ 高级机器学习作业.pdf: 作业要求文档
│
├─para_adjust: 超参数学习相关代码与结果
│
├─images: 文档图片
│
├─test_case0: 第 test_case0 测试样例
│
├─../Dataset-of-Pedestrian-Dead-Reckoning: 我们自己录制的数据集
│
├─../TestSet: 提供的测试集
首先准备数据集,数据集应当以类似 test_case0
的方式组织,且 CSV 格式与之相同:
test_case0/
├── Accelerometer.csv
├── Barometer.csv
├── Gyroscope.csv
├── Linear Accelerometer.csv
├── Location_input.csv
└── Magnetometer.csv
然后执行 python main.py --dataset test_case0
,其中 test_case0
为数据集目录的路径。程序会把预测结果输出到 test_case0/Location_output.csv
,并在控制台输出消耗的时间。
程序会对数据进行预处理并缓存预处理结果到文件,因此该文件存在与否对消耗时间影响较大。
性能测试时,均在无缓存的情况下测试,故运行时间均包含预处理时间
如果目录中包含全过程位置 Location.csv
,将在控制台输出 dist_error, dir_error, dir_ratio
,增加 --silent
标志将阻止控制台输出。
在 batch_test.py
中提供了三种在多个数据集上进行测试的方法:
main
:测试程序在默认参数下,在我们收集的 54 个数据集上的运行结果test_step_method
:测试程序在不同的预测步幅的算法下,在 54 个数据集上的平均结果mp_test
:多进程地测试程序在不同的参数组合下,在 54 个数据集上的结果(用于调参,运行时间较长)
batch_test.py
假设我们 收集到的数据集 (点此下载) 放置在工作目录的 ../Dataset-of-Pedestrian-Dead-Reckoning/
内。
在 test_case0 上耗时
- 每个GPS 定位点下估计的位置和真实位置的直线距离的平均值
dist_error
:$30.46$ 米 - 方位角平均误差
dir_error
:$8.66\degree$ - 方位角平均误差小于
$15\degree$ 的比例dir_ratio
:$92.6%$
在 10 个测试集上耗时
由于没有真实 GPS 数据,无法获得准确性指标。
最后的结果保存于 Result
文件夹或 TestSet
文件夹中。
虽然数据集的时间跨度有区别,但是求取准确性指标的平均值时未纳入考虑
在 51 个收集的行走数据集上耗时
- 每个GPS 定位点下估计的位置和真实位置的直线距离的平均值
dist_error
:$109.08$ 米 - 方位角平均误差
dir_error
:$26.16\degree$ - 方位角平均误差小于
$15\degree$ 的比例dir_ratio
:$50.2%$ - 共
$15$ 个数据集上方位角平均误差小于$15\degree$ - 共
$3$ 个数据集上方位角平均误差小于$15\degree$ 的比例大于$90%$
在 17 个收集的骑行或跑步数据集上耗时
- 每个GPS 定位点下估计的位置和真实位置的直线距离的平均值
dist_error
:$113.52$ 米 - 方位角平均误差
dir_error
:$27.06\degree$ - 方位角平均误差小于
$15\degree$ 的比例dir_ratio
:$58.3%$ - 共
$9$ 个数据集上方位角平均误差小于$15\degree$ - 共
$3$ 个数据集上方位角平均误差小于$15\degree$ 的比例大于$90%$
-
Wang, Boyuan, Xuelin Liu, Baoguo Yu, Ruicai Jia, and Xingli Gan. 2018. "Pedestrian Dead Reckoning Based on Motion Mode Recognition Using a Smartphone" Sensors 18, no. 6: 1811. https://doi.org/10.3390/s18061811
-
Ladetto, Q. On foot navigation: Continuous step calibration using both complementary recursive prediction and adaptive kalman filtering. In Proceedings of the 13th International Technical Meeting of the Satellite Division of the Institute of Navigation, Salt Lake City, UT, USA, 19–22 September 2000; pp. 1735–1740.