Sagie Benaim、Tomer Galanti和Lior Wolf
在多个最近的贡献[28,15,33,30],循环使用。圆度
需要同时恢复
y
AB
和
y
BA
=
y
−
1
即,函数
disc(
G
◦
D
A
,
D
B
)+disc(
G
′
◦
D
B
,
D
A
)+
R
D
[
G
′
◦
G
,Id
A
] +
R
D
[
G
◦
G
′
,Id
B
]
(
2
)
哪里
. .
圆盘(
D
1
,
D
2
):= 辅助
核算
R
D
1
[
c
1
,
c
2
]−
R
D
2
[
c
1
,
c
2
]
。
c1
,
c2
∈C
. . (三)
.
E
x D
1
[(
c
1
(
x
),
c
2
(
x
))] −
E
x D
2
[(
c
1
(
x
),
c
2
(
x
))
]
。
表示分布
D1
和
D2
之间的差异,C是选定的函数类,
IdA
:
XA
→
XA
和
IdB
:
XB
→
XB
分别
是
XA
和
XB
上的恒等函数。这种差异类似于
WGAN
散度
[1]
,其中我们使用(
c
1
(
x
)
,
c
2
(
x
))形式的判别器而不是1
-Lipschitz
判别器,其中
c
1
,
c
2
。这种
差异由
GAN
实现,如
[10]
中所示。
如[9]所示,循环约束并没有消除 其全部在DistanceGAN[2]中,圆度被多维
缩放类型的约束所取代,这强制两个域中的距离之间具有高度相关性然而,由
于这些约束仅近似地保持,因此模糊性未被完全消除。
2.2
简单性原则
为了理解最近的无监督图像映射方法如何工作,尽管存在固有的模糊性,
[9]
最近示出了目标(
“
语义
”
)映射
yAB
通常是具有最低复杂度的分布保持映射(
h
DA= DB
)。结果表明,这种映射预计是唯一的。
作为极小映射的关键作用的一个激励性例子,考虑由均匀分布点(
x
1
,
x
2
)
∈
R
2
组成的域
A
,其中
x
1
=
x
2
∈[−1
,
1]。设
B
是
{
(
x1
,
x2
)
}
中均匀分布点的
定义域
|
x
1
∈[0
,
1]
,
x
2
=
0}
{
(
x
1
,
x
2
)
|
x2
∈ [0
,
1]
,
x1
=
0}
.
我们注意到,有无穷多个映射,
域
A
到
B
,给定
A
中的输入,导致
B
的均匀分布,并且满足
圆度约束(Eq. 2)的情况。
然而,很容易看出,当将假设类限制为具有一个大小为2的层和
ReLU
激
活
σ
的神经网络时, 只剩下两个选项。
在 这种 情 况下 ,
h
(
x
)
=
σ
。
a
(
Wx
)
,对
W
Σ
∈
R2
×
2
,
b
.
∈
R
2
.
关于
l
Σ
y
容许解
对于每个a
,
b∈R,到以下函数之一
.
(
x
,
0
)
if
x
≥
0
因此,通过将假设空间限制为最小,我们消除了除两个之外的所有备选解决
方案。这两个映射正是通常被认为1.一、另一个激励的例子可以在[9]中找到。