DL-FWI内训Day5
发布于 2023719|遵循 CC BY-NC-SA 4.0 许可

今日内训主要介绍两篇一脉相承的文章:

符号定义

首先对一些反演过程中所引入的符号进行定义:

反演过程
  • 地震数据DiD^i的大小为[S,T,R][S,T,R],其中SSRRTT分别表示震源个数、接收器个数和时间步长的数量。
  • 速度模型ViV^i的大小为[H,W][H, W],分别表示速度模型的高度和宽度。

网络分析

现存问题

对于深度学习主导的FWI任务,可以简化为下述映射:

F(Di,θ)Vi\mathcal{F} (D^i, \theta)\rightarrow V^i

主流模型大多采用基于CNN的一些网络结构来构造这种映射F\mathcal{F}。但在这两篇文章中,作者认为直接采用CNN并不是最佳的选择,理由如下:

  1. 空间对应性弱,速度模型中的界面与地震数据中的对应模式具有较弱的空间对应关系。
  2. 地震数据与速度模型的不确定反射-接收关系。

因此,作者希望通过嵌入和DNN特征提取等一些手段替代CNN对于地震图像的前期编码的处理,缓解了CNN对于反射-接收关系的不确定性。

解决方案

作者通过引入嵌入操作和对齐特征图两个中间状态,来替代地震图像的前期编码。

嵌入手段的DL-FWI

映射表示如下:

F:DiN,S,GEiF1FiF2Vi\mathcal{F}:D^i\mathop{\rightarrow}^{\mathcal{N},\mathcal{S},\mathcal{G}}E^i\mathop{\rightarrow}^{\mathcal{F_1}}F_i\mathop{\rightarrow}^{\mathcal{F_2}}V^i

嵌入过程

对于嵌入向量Es,riE^i_{s,r},计算方式如下:

Es,ri=[N(Ds,ri),S(Ds,ri),G(Ds,ri)]E^i_{s,r}=[\mathcal{N}(D^i_{s,r}),\mathcal{S}(D^i_{s,r}),\mathcal{G}(D^i_{s,r})]

每个分量包含了不同的信息。

邻域信息

邻域信息分别提取同炮面的地震道(s相等)和同接收器的地震道(r相等)的信息,分别进行CNN后获得邻域信息N(Ds,:i)\mathcal{N(D^i_{s,:})}N(D:,ri)\mathcal{N}(D^i_{:,r}),最后提取所在接收器/炮面的一道数据N(Ds,:i)r\mathcal{N(D^i_{s,:})_r}N(D:,ri)s\mathcal{N(D^i_{:,r})_s}

邻域信息计算-同炮面提取
邻域信息计算-同接收器提取

最后,将两者进行矩阵加操作,得到最终的邻域信息。

N(Ds,ri)=12N(Ds,:i)r+12N(D:,ri)s\mathcal{N}(D^i_{s,r})=\frac{1}{2}\mathcal{N(D^i_{s,:})_r}+\frac{1}{2}\mathcal{N(D^i_{:,r})_s}

全局上下文

全局上下文G(Ds.ri)\mathcal{G}(D^i_{s.r})所提取的地震道与上述一致,不同的是提取地震道并进行CNN计算后获取的向量尺寸为c×1c\times 1,表示了所在炮面/接收器的全局信息。

全局上下文

观测设置

观测设置S(Ds,ri)\mathcal{S}(D^i_{s,r})由两个one-hot编码组成,分别表示地震道所在炮面/接收器的编号。最后将两者concatenate为(S+R)×1(S+R)\times 1的向量。

空间对齐

空间对齐F1\mathcal{F}_1过程是全连接神经网络,对每一道地震数据进行计算,过程如下图所示:

空间对齐

卷积映射

卷积映射F2\mathcal{F}_2的网络结构与先前介绍的InversionNet类似,通过最后的端到端的CNN后,我们就能获得一个H×WH\times W的速度模型。

这样,全过程示意如下:

网络概览

Comments