模糊神经网络
ANN( Artificial Neural Network)和 FLS( Fuzzy Logical
Network)的比较:
相同之处 1) 都是非数值型的非线性函数的逼近器、
估计器、和动态系统;
2) 不需要数学模型进行描述,但都可用数学工具进行处理;
3)都适合于 VLSI、光电器件等硬件实现。
不同之处,㈠ 工作机制方面:
ANN—— 大量、高度连接,按样板进行学习
FLS—— 按语言变量、通过隐含、推理和去模糊获得结果。
㈣ 应用上:
ANN—— 偏重于模式识别,分类
FLN —— 偏重于控制神经模糊网络 —— 把 ANN的学习机制和 FLN的人类思维和推理结合起来。
㈡ 信息处理基本单元方面,
ANN—— 数值点样本,xi yi
FLN—— 模糊集合( Ai,Bi)
㈢ 运行模式方面,
ANN—— 学习过程透明,不对结构知识编码
FLN—— 不透明,对结构知识进行编码,推理过程外界可知结合方式有 3种:
1) 神经模糊系统 —— 用神经元网络来实现模糊隶属函数、
模糊推理,基本上(本质上)还是 FLN。
2)模糊神经系统 —— 神经网络模糊化,本质上还是 ANN。
3)模糊 -神经混合系统 —— 二者有机结合。
● 基于神经网络的模糊逻辑运算
① 用神经网络实现隶属函数
② 神经网络驱动模糊推理
③ 神经网络的模糊建模
● 用神经网络实现隶属函数
)]}(e x p [1{
1)(
1
cg
s wxwxy
wc 和 wg 分别确定 Sigmoid函数的中心和宽度,?S(x),?M(x),?L(x)
组成大、中、小三个论域的隶属函数。
逻辑“与”可以用 Softmin 来实现,
kbka
kbka
ee
beaebaba
),m i n(s of t)(
b)M i n ( a,b)S o f t m i n ( a, 时,当 k
函数。是非线性函数,生成 s i g m o i da
● 神经网络驱动模糊推理 ( NDF)
),z,,yxfT h e nBYAXIfR iiii (是是和是
rs
xxxNNyT h enAxxxXIfR nsssns
,.,,,2,1
),.,,,,(,),.,,,,(,2121
是解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数;
②缺乏学习功能校正推理规则。
用神经网络实现 T— S模型,称为 神经网络驱动模糊推理 (NDF).
网络由二部分组成,
r为规则数,As是前提的模糊集合,NNs是模型的函数结构,
由 BP网络实现,
学习的网络和训练的步骤
8
2) 将数据聚类,分成 r 类,即有 r 条规则,TRD的数据有 N t 个,
3) 训练规则的前提部分网络 NNm.。
4)训练对应于规则 R s的后件部分( Then部分) NN s
6
6
(加权)
或
)}()(){(
)}()({
2
1
2
1
iAis
N
i
iiA
s
m
iAis
N
i
i
s
m
xxyxE
xxyE
s
c
s
s
c
5)简化后件部分在 NN S的输入端,任意消去 x p,比较误差:
6)最终输出
6
● 神经网络的模糊建模有三种模型:
⑴ 后件为恒值:
i
n
i
i
n
i
ii
n
i
i
iii
i
ff
nifyT h e nAxAxIfR
111
*
2211
/y
),.,,,2,1(,:
21
是和是
3,2,1,21?ii
⑵ 后件为一阶线性方程
0,1,2 )(j ),(
),(?),(
,.,,,2,1
),(,:
2211021
21
11
21
1
*
212211
21
是常数是和是
ijiiii
n
i
ii
n
i
i
n
i
ii
iii
i
axaxaaxxf
xxfxxfy
ni
xxfyT h enAxAxIfR
n
i
iiiiii xxx
1
)(/)()(
⑶ 后件为模糊变量
)(?)(
2,1,,.,,,2,1
),(,
'1
2
1
'
2
1
'
2
1
'1'*
1
'
2211
21
k
B
k
k
k
k
k
k
B
k
R
n
i
ik
Rkii
i
k
kk
i
k
i
k
y
kni
ByT h enAxAxIfR
是是是和是应用假定要辨识的系统为 25.1
3125.01 )1( xxxg
数据 40 对,见表 6.1
评判指标,
UCEEC
yyyyUC
yyE
yyE
BA
n
i
BB
i
BA
i
n
i
AA
i
AB
i
n
i
BB
i
B
iA
n
i
AA
i
A
iA
BA
B
A
22
1
2
1
2
1
2
1
2
)()(
)(
)(
常 数 模 型常 数 模 型 隶属函数的变化非 线 性 模 型非线性模型隶属函数的变化语 言 输 出 模 型语 言 输 出 模 型隶属函数的变化
I
II
● 神经网络模糊化
① 模糊感知器精确划分的问题:每个分量都有同样的“重要性”,用在分类时,当分类有重叠时(如图),得不到很好的结果。
模糊感知器的基本思想,给隶属函数以一定的修正量,对隶属度接近 0.5的样本,在确定权值向量时,给予较小的影响,
是分类的数目。的维数。是向量迭代次数)
ixp
xxix
nj
xyyxxWW
ki
p
k
ki
i
ki
j
kk
d
k
m
kk
j
k
j
k
]1,0[)( ),(0,2,1,1)(
( 11
,][)()(
1
2
1
21
1
模糊感知器算法的问题,
1) 如何选择 m?
2) 如何给向量赋与模糊隶属函数?
3) 算法的终止判据,
回答,1) m >1; 如隶属函数接近 0.5.
m,1;如隶属函数大于 0.5.
2) 给向量赋与模糊隶属函数的规则,
)1)(
)(2
5.0)
)1)(
)(2
5.0)
21
/)(
2
12
/)(
1
21
12
kk
ff
fdddf
k
kk
ff
fdddf
k
xx
ee
ee
xII
xx
ee
ee
xI
(
(:对类别
(
(:对类别
其中,
.5.0
)(
)(
2
1
的速率控制隶属函数下降到是正常数,
均值之间的距离;和是类别的距离;相当于离聚类中心均值是属于向量类别的距离;相当于离聚类中心均值是属于向量类别
f
IIId
IId
Id
3) 算法停止的判据,
.5.0 0,0 2,
0
)(2
1
5.0) 5.0)( 21
附近在
(或
B et a
ee
e
B et a
B et axB et ax
ff
f
kk
产生良好的结果,
② 模糊联想存储器 ( FAM)
双向联想存贮器的模糊化。把双向联想存贮器的权矩阵变换成模糊集合的关系(关联)矩阵。
(当分类错误,不确定向量不再产生另一迭代)
BAM T
6.05.09.0
6.05.09.0
5.05.05.0
2.02.02.0
6.05.09.0
0.1
9.0
5.0
2.0
BAM T?
jiij
T
bam
BAM
6.05.09.0
45.045.081.0
3.025.045.0
12.01.018.0
BAM T
模糊关联矩阵 M确定有二种方法,1)相关最小编码
m i j= Min( a i,b j)
假定 A= (0.2 0.5 0.9 1.0),B= (0.9 0.5 0.6),则:
2)相关乘积编码现在看,如果有 A能否“回忆”起
B?A?M = B; B?MT= [0.2 0.5 0.9 0.9]= A’ ≠ A.
m
k
kk BWB
1
'
.,.,,,2,1 )(' mkBAAMAB kTkkk
)(/)(
11
i
p
i
BiB
p
i
i yyyB
现在看,如果有 A能否“回忆”起 B?
如果 AT = (0 0 0 1),则 AT?M = B; 如果 AT = ( 1 0 0 0)则
AT?M = ( 0.18 0.1 0.12) 只回忆起 B的 20%。
由 m个 FAM组成的 FAM系统 。
把 m个关联( A k,B k)分别存到存贮库中,把 m 个记忆向量叠加起来。即:
所记忆的隶属向量,等于各记忆向量的加权和:
如在输出论域 Y=( y1,y2,…,y p)需要一个单独的输出,
则要去模糊:
A并行地加于各联想存贮器上。
神经模糊网络 —— 神经模糊控制器对任一节点 i 输入与输出的关系:
输入,
kpkkkpkki wwwuuufn e t 2121,,,,
代表组合代表层次 fk,
输出,fan etaoO u t p u t
iki
● 模糊自适应学习控制网络 (FALCON)
29
第 5层:
一样,产生隶属函数2 )自上至下与第2 层
.
,
5
5
55
与第1 层一样 上而下由2)
权值输出:
隶属函数为钟形输入:
决策、去模糊,由下至上1)
ijijij
i
j
ijij
ij
j j
ijijijij
mw
yufa
umuwf
学习(训练)
目的,1) 决定第 2层和第 4层中的隶属函数中心 mij和宽度 σ ij
2)决定第 3层和第 4层中的规则自组织学习
a ) 输入变量 x1空间的划分
T(x1)T(x2)…T(x n)?=?T(x)?
T(y i)?
b)第 4层处在自上至下的模式
c l o s tiii
c l o s tc l o s tc l o s t
i
ki
c l o s t
mmtmtm
tmtxttmtm
tmtxtmtx
对 ),()1(
)()()()()1(
)()(m i n)()(
1
的任意一个量代表输入、输出语言变
,.,,,,,,.,,,,
)(
2121 mn yyyxxx
tx
2
1
2
2
1
N
i Nj i
ji
n
rmmE?
3? r
d) 确定连接和模糊规则
e) 规则合并,减少规则
1) 有完全相同的结果
2) 前提一样的规则
3) 其它前提的并,组成了某些输入变量的整个术语的集合监督学习阶段
221 tytyE d
im
E
=
)5(a
E
im
a
)5( = - [ dy ( t) - y ( t) ]
i
ii
i
u
u
)5(
)5(
im ( t+1) = im ( t) +? [
dy ( t) - y ( t) ]
i
ii
ii
u
u
)5(
)5(
i
E
=
)5(a
E
i
a
)5( = - [ dy ( t) - y ( t) ]
i
ii
i i
iiiiiiii
u
uumuum
2)5(
)5()5()5()5(
)(
)()(
i? (t+1)= i? (t) +? [
dy (t) - y (t) ]
i
ii
i i
iiiiiiii
u
uumuum
2)5(
)5()5()5()5(
)(
)()(
)(// )5()5( tyyyEaE d
● 神经 -模糊网络(控制器)的参数学习( ANFIS)
2
2
21
2
1
2
01
2
22
2
11
2
2
1
21
1
1
1
01
1
22
1
11
1
,
,
xaxaafyT h e nAxAxIfR
xaxaafyT h e nAxAxIfR
,是和是
,是和是
)()(
2,1 )()(
2
2
21
2
1
2
022
1
21
1
1
1
012211
21
21
2211*
21
xaxaaxaxaaff
jxx
ff
y jj A
Aj
,
相应的 ANFIS网络如图示。隶属函数为钟形:
11
1
xA?
22
2
xA21
2
xA?
12
1
xA?
)}]/){ [ (1(
1)(
2 ji
j
i bj
i
j
ii
iA
mx
x
)()(/ 21 21 xx jj AAjj
)( 22110 xaxaaf jjjj
要调节的参数:
}a,a,{a },,{ j2j1j0和jijiji bm?
对后件参数,可以用 Kalman滤波方法进行计算,此时,把后件参数排列成向量:
222120121110,,,,,aaaaaa
)()(
2
2
2
)(
1
2
1
2
02
)(
2
1
2
)(
1
1
1
1
01
)2()2(
2
2
2
)2(
1
2
1
2
02
)2(
2
1
2
)2(
1
1
1
1
01
)1()1(
2
2
2
)1(
1
2
1
2
02
)1(
2
1
2
)1(
1
1
1
1
01
)()(
)()(
)()(
ppppp
dxaxaaxaxaa
dxaxaaxaxaa
dxaxaaxaxaa
一组线性方程求解。
)(
)2(
)1(
2
2
2
1
2
0
1
2
1
1
1
0
)(
2
)(
2
)(
1
)(
2
)(
2
)(
2
)(
1
)(
1
)(
1
)(
1
)2(
2
)2(
2
)1(
1
)2(
2
)2(
2
)2(
2
)2(
1
)1(
1
)2(
1
)2(
1
)1(
2
)1(
2
)1(
1
)1(
2
)1(
2
)1(
2
)1(
1
)1(
1
)1(
1
)1(
1
ppppppppppp
d
d
d
a
a
a
a
a
a
xxxx
xxxx
xxxx
.,.,,,2,1),,( )()(2)(1 是样板数目是样本,pkdxx kkk?
DXXXA TT 1)(
ANN( Artificial Neural Network)和 FLS( Fuzzy Logical
Network)的比较:
相同之处 1) 都是非数值型的非线性函数的逼近器、
估计器、和动态系统;
2) 不需要数学模型进行描述,但都可用数学工具进行处理;
3)都适合于 VLSI、光电器件等硬件实现。
不同之处,㈠ 工作机制方面:
ANN—— 大量、高度连接,按样板进行学习
FLS—— 按语言变量、通过隐含、推理和去模糊获得结果。
㈣ 应用上:
ANN—— 偏重于模式识别,分类
FLN —— 偏重于控制神经模糊网络 —— 把 ANN的学习机制和 FLN的人类思维和推理结合起来。
㈡ 信息处理基本单元方面,
ANN—— 数值点样本,xi yi
FLN—— 模糊集合( Ai,Bi)
㈢ 运行模式方面,
ANN—— 学习过程透明,不对结构知识编码
FLN—— 不透明,对结构知识进行编码,推理过程外界可知结合方式有 3种:
1) 神经模糊系统 —— 用神经元网络来实现模糊隶属函数、
模糊推理,基本上(本质上)还是 FLN。
2)模糊神经系统 —— 神经网络模糊化,本质上还是 ANN。
3)模糊 -神经混合系统 —— 二者有机结合。
● 基于神经网络的模糊逻辑运算
① 用神经网络实现隶属函数
② 神经网络驱动模糊推理
③ 神经网络的模糊建模
● 用神经网络实现隶属函数
)]}(e x p [1{
1)(
1
cg
s wxwxy
wc 和 wg 分别确定 Sigmoid函数的中心和宽度,?S(x),?M(x),?L(x)
组成大、中、小三个论域的隶属函数。
逻辑“与”可以用 Softmin 来实现,
kbka
kbka
ee
beaebaba
),m i n(s of t)(
b)M i n ( a,b)S o f t m i n ( a, 时,当 k
函数。是非线性函数,生成 s i g m o i da
● 神经网络驱动模糊推理 ( NDF)
),z,,yxfT h e nBYAXIfR iiii (是是和是
rs
xxxNNyT h enAxxxXIfR nsssns
,.,,,2,1
),.,,,,(,),.,,,,(,2121
是解决模糊推理中二个问题:①缺乏确定的方法选择隶属函数;
②缺乏学习功能校正推理规则。
用神经网络实现 T— S模型,称为 神经网络驱动模糊推理 (NDF).
网络由二部分组成,
r为规则数,As是前提的模糊集合,NNs是模型的函数结构,
由 BP网络实现,
学习的网络和训练的步骤
8
2) 将数据聚类,分成 r 类,即有 r 条规则,TRD的数据有 N t 个,
3) 训练规则的前提部分网络 NNm.。
4)训练对应于规则 R s的后件部分( Then部分) NN s
6
6
(加权)
或
)}()(){(
)}()({
2
1
2
1
iAis
N
i
iiA
s
m
iAis
N
i
i
s
m
xxyxE
xxyE
s
c
s
s
c
5)简化后件部分在 NN S的输入端,任意消去 x p,比较误差:
6)最终输出
6
● 神经网络的模糊建模有三种模型:
⑴ 后件为恒值:
i
n
i
i
n
i
ii
n
i
i
iii
i
ff
nifyT h e nAxAxIfR
111
*
2211
/y
),.,,,2,1(,:
21
是和是
3,2,1,21?ii
⑵ 后件为一阶线性方程
0,1,2 )(j ),(
),(?),(
,.,,,2,1
),(,:
2211021
21
11
21
1
*
212211
21
是常数是和是
ijiiii
n
i
ii
n
i
i
n
i
ii
iii
i
axaxaaxxf
xxfxxfy
ni
xxfyT h enAxAxIfR
n
i
iiiiii xxx
1
)(/)()(
⑶ 后件为模糊变量
)(?)(
2,1,,.,,,2,1
),(,
'1
2
1
'
2
1
'
2
1
'1'*
1
'
2211
21
k
B
k
k
k
k
k
k
B
k
R
n
i
ik
Rkii
i
k
kk
i
k
i
k
y
kni
ByT h enAxAxIfR
是是是和是应用假定要辨识的系统为 25.1
3125.01 )1( xxxg
数据 40 对,见表 6.1
评判指标,
UCEEC
yyyyUC
yyE
yyE
BA
n
i
BB
i
BA
i
n
i
AA
i
AB
i
n
i
BB
i
B
iA
n
i
AA
i
A
iA
BA
B
A
22
1
2
1
2
1
2
1
2
)()(
)(
)(
常 数 模 型常 数 模 型 隶属函数的变化非 线 性 模 型非线性模型隶属函数的变化语 言 输 出 模 型语 言 输 出 模 型隶属函数的变化
I
II
● 神经网络模糊化
① 模糊感知器精确划分的问题:每个分量都有同样的“重要性”,用在分类时,当分类有重叠时(如图),得不到很好的结果。
模糊感知器的基本思想,给隶属函数以一定的修正量,对隶属度接近 0.5的样本,在确定权值向量时,给予较小的影响,
是分类的数目。的维数。是向量迭代次数)
ixp
xxix
nj
xyyxxWW
ki
p
k
ki
i
ki
j
kk
d
k
m
kk
j
k
j
k
]1,0[)( ),(0,2,1,1)(
( 11
,][)()(
1
2
1
21
1
模糊感知器算法的问题,
1) 如何选择 m?
2) 如何给向量赋与模糊隶属函数?
3) 算法的终止判据,
回答,1) m >1; 如隶属函数接近 0.5.
m,1;如隶属函数大于 0.5.
2) 给向量赋与模糊隶属函数的规则,
)1)(
)(2
5.0)
)1)(
)(2
5.0)
21
/)(
2
12
/)(
1
21
12
kk
ff
fdddf
k
kk
ff
fdddf
k
xx
ee
ee
xII
xx
ee
ee
xI
(
(:对类别
(
(:对类别
其中,
.5.0
)(
)(
2
1
的速率控制隶属函数下降到是正常数,
均值之间的距离;和是类别的距离;相当于离聚类中心均值是属于向量类别的距离;相当于离聚类中心均值是属于向量类别
f
IIId
IId
Id
3) 算法停止的判据,
.5.0 0,0 2,
0
)(2
1
5.0) 5.0)( 21
附近在
(或
B et a
ee
e
B et a
B et axB et ax
ff
f
kk
产生良好的结果,
② 模糊联想存储器 ( FAM)
双向联想存贮器的模糊化。把双向联想存贮器的权矩阵变换成模糊集合的关系(关联)矩阵。
(当分类错误,不确定向量不再产生另一迭代)
BAM T
6.05.09.0
6.05.09.0
5.05.05.0
2.02.02.0
6.05.09.0
0.1
9.0
5.0
2.0
BAM T?
jiij
T
bam
BAM
6.05.09.0
45.045.081.0
3.025.045.0
12.01.018.0
BAM T
模糊关联矩阵 M确定有二种方法,1)相关最小编码
m i j= Min( a i,b j)
假定 A= (0.2 0.5 0.9 1.0),B= (0.9 0.5 0.6),则:
2)相关乘积编码现在看,如果有 A能否“回忆”起
B?A?M = B; B?MT= [0.2 0.5 0.9 0.9]= A’ ≠ A.
m
k
kk BWB
1
'
.,.,,,2,1 )(' mkBAAMAB kTkkk
)(/)(
11
i
p
i
BiB
p
i
i yyyB
现在看,如果有 A能否“回忆”起 B?
如果 AT = (0 0 0 1),则 AT?M = B; 如果 AT = ( 1 0 0 0)则
AT?M = ( 0.18 0.1 0.12) 只回忆起 B的 20%。
由 m个 FAM组成的 FAM系统 。
把 m个关联( A k,B k)分别存到存贮库中,把 m 个记忆向量叠加起来。即:
所记忆的隶属向量,等于各记忆向量的加权和:
如在输出论域 Y=( y1,y2,…,y p)需要一个单独的输出,
则要去模糊:
A并行地加于各联想存贮器上。
神经模糊网络 —— 神经模糊控制器对任一节点 i 输入与输出的关系:
输入,
kpkkkpkki wwwuuufn e t 2121,,,,
代表组合代表层次 fk,
输出,fan etaoO u t p u t
iki
● 模糊自适应学习控制网络 (FALCON)
29
第 5层:
一样,产生隶属函数2 )自上至下与第2 层
.
,
5
5
55
与第1 层一样 上而下由2)
权值输出:
隶属函数为钟形输入:
决策、去模糊,由下至上1)
ijijij
i
j
ijij
ij
j j
ijijijij
mw
yufa
umuwf
学习(训练)
目的,1) 决定第 2层和第 4层中的隶属函数中心 mij和宽度 σ ij
2)决定第 3层和第 4层中的规则自组织学习
a ) 输入变量 x1空间的划分
T(x1)T(x2)…T(x n)?=?T(x)?
T(y i)?
b)第 4层处在自上至下的模式
c l o s tiii
c l o s tc l o s tc l o s t
i
ki
c l o s t
mmtmtm
tmtxttmtm
tmtxtmtx
对 ),()1(
)()()()()1(
)()(m i n)()(
1
的任意一个量代表输入、输出语言变
,.,,,,,,.,,,,
)(
2121 mn yyyxxx
tx
2
1
2
2
1
N
i Nj i
ji
n
rmmE?
3? r
d) 确定连接和模糊规则
e) 规则合并,减少规则
1) 有完全相同的结果
2) 前提一样的规则
3) 其它前提的并,组成了某些输入变量的整个术语的集合监督学习阶段
221 tytyE d
im
E
=
)5(a
E
im
a
)5( = - [ dy ( t) - y ( t) ]
i
ii
i
u
u
)5(
)5(
im ( t+1) = im ( t) +? [
dy ( t) - y ( t) ]
i
ii
ii
u
u
)5(
)5(
i
E
=
)5(a
E
i
a
)5( = - [ dy ( t) - y ( t) ]
i
ii
i i
iiiiiiii
u
uumuum
2)5(
)5()5()5()5(
)(
)()(
i? (t+1)= i? (t) +? [
dy (t) - y (t) ]
i
ii
i i
iiiiiiii
u
uumuum
2)5(
)5()5()5()5(
)(
)()(
)(// )5()5( tyyyEaE d
● 神经 -模糊网络(控制器)的参数学习( ANFIS)
2
2
21
2
1
2
01
2
22
2
11
2
2
1
21
1
1
1
01
1
22
1
11
1
,
,
xaxaafyT h e nAxAxIfR
xaxaafyT h e nAxAxIfR
,是和是
,是和是
)()(
2,1 )()(
2
2
21
2
1
2
022
1
21
1
1
1
012211
21
21
2211*
21
xaxaaxaxaaff
jxx
ff
y jj A
Aj
,
相应的 ANFIS网络如图示。隶属函数为钟形:
11
1
xA?
22
2
xA21
2
xA?
12
1
xA?
)}]/){ [ (1(
1)(
2 ji
j
i bj
i
j
ii
iA
mx
x
)()(/ 21 21 xx jj AAjj
)( 22110 xaxaaf jjjj
要调节的参数:
}a,a,{a },,{ j2j1j0和jijiji bm?
对后件参数,可以用 Kalman滤波方法进行计算,此时,把后件参数排列成向量:
222120121110,,,,,aaaaaa
)()(
2
2
2
)(
1
2
1
2
02
)(
2
1
2
)(
1
1
1
1
01
)2()2(
2
2
2
)2(
1
2
1
2
02
)2(
2
1
2
)2(
1
1
1
1
01
)1()1(
2
2
2
)1(
1
2
1
2
02
)1(
2
1
2
)1(
1
1
1
1
01
)()(
)()(
)()(
ppppp
dxaxaaxaxaa
dxaxaaxaxaa
dxaxaaxaxaa
一组线性方程求解。
)(
)2(
)1(
2
2
2
1
2
0
1
2
1
1
1
0
)(
2
)(
2
)(
1
)(
2
)(
2
)(
2
)(
1
)(
1
)(
1
)(
1
)2(
2
)2(
2
)1(
1
)2(
2
)2(
2
)2(
2
)2(
1
)1(
1
)2(
1
)2(
1
)1(
2
)1(
2
)1(
1
)1(
2
)1(
2
)1(
2
)1(
1
)1(
1
)1(
1
)1(
1
ppppppppppp
d
d
d
a
a
a
a
a
a
xxxx
xxxx
xxxx
.,.,,,2,1),,( )()(2)(1 是样板数目是样本,pkdxx kkk?
DXXXA TT 1)(