LoginSignup
0
0

IX2025のMTU設定でハマった話

Last updated at Posted at 2024-02-17

前提条件

当該ネットワークは頭と効率が悪い変態ネットワークである。
自宅でオンプレ運用していたサーヴァーをクラウドに移設したが使い勝手を優先してクラウド移行前の環境をVPNを使いそのままクラウドまで持っていった形になっている。
そのためOSPFとかもクラウドまで行っているというアレなネットワークになっている。
さらに本ネットワークは固定IP回線と動的IP回線によるマルチホーム構成になっている。
ちなみに固定IPは単なる趣味の実験のために取得してある。色々な実験をするには固定IPが便利だから。
ConoHa VPSへのVPN接続は動的IPの方が回線が早いのでこっちを経由で接続している。

jitaku.png

適切なMTUを設定する

パケットを効率良く転送するため適切なMTUを設定する必要がある。
回線はNTT東日本のフレッツ光ネクストなので回線自体のMTUは1454である。
本ネットワークはConoHa-VPSまでIPsecで結んでいる。
IPsecはNATトラバーサル、 暗号化はAES、 認証はSHA1なのでIPsecトンネルのMTUは1374、MSSは1334となる。
よって以下のようにIX2025に設定した。

interface Tunnel0.0
  tunnel mode ether-ip ipsec
  ip mtu 1374
  no ip address
  ip tcp adjust-mss 1334
  ipsec policy tunnel ipsec-map pre-fragment out
  bridge-group 1
  no shutdown

なんかおかしい

確認のためにConoHa-VPS(10.0.0.3)に向ってフラグメントなしで設定したMTU(1374)を超えたデータサイズ1347byte[=1375-20(IPヘッダ)-8(ICMPヘッダ)]でpingを打つとなぜかpingが通過した。フラグメント禁止しているのにだ。

shin@yui[16]%ping -M do -s 1347 10.0.0.3
PING 10.0.0.3 (10.0.0.3) 1347(1375) bytes of data.
1355 bytes from 10.0.0.3: icmp_seq=1 ttl=254 time=7.95 ms
1355 bytes from 10.0.0.3: icmp_seq=2 ttl=254 time=8.11 ms
1355 bytes from 10.0.0.3: icmp_seq=3 ttl=254 time=8.10 ms
^C
--- 10.0.0.3 ping statistics ---
3 packets transmitted, 3 received, 0% packet loss, time 2002ms
rtt min/avg/max/mdev = 7.951/8.054/8.113/0.127 ms

あれれれれ?

わけがわからないのでConoHa側(仮想計算機のEthernetポート)でtcpdumpを実施してwiresharkで解析してみたところ、パケットのデータ数がMTUを越えておりフラグメントされていた。

wire.png

さらにVPS(OpenBSD)側のOSPFはステートがEXSTAのままFULLにならない。

shin@conoha-saki.aerg.net[3]%ospfctl show neighbor
ID              Pri State        DeadTime Address         Iface     Uptime
192.168.0.40    1   EXSTA/DR     00:00:34 10.0.0.2        tap1      -
192.168.1.42    1   FULL/BCKUP   00:00:39 10.0.0.1        tap1      00:03:31

で、IX2025のトンネルインターフェース(Tunnel0.0)の詳細を確認してみたら

conoha-gateway(config)# show interfaces Tunnel0.0 
Interface Tunnel0.0 is up
  Fundamental MTU is 0 octets
  Current bandwidth 100M b/s, QoS is disabled
   (途中省略)
  Encapsulation TUNNEL:
    Tunnel mode is ipsec (ether-ip ip)
    Tunnel is ready
    Destination address is xxx.xxx.xxx.xxx
    Source address is 10.0.1.2
    Nexthop address is 10.0.1.253
    Outgoing interface is FastEthernet1/0.0
    Interface MTU is 1422
    Path MTU is 1500
  (以下省略)

あれ? Interface MTUが1422になっているし、Path MTUが1500になっていた。
トンネルインターフェースのMTUやMSSを設定すれば出力側(Outgoing interface)の物理インターフェース(FastEthernet1/0.0)のMTUは自動的に設定されると思っていたが、どうやら出力側の物理インターフェースでMTUをいじってやらんと駄目らしい。
逆に言えば物理インターフェースのMTUを変更すると対応するトンネルインターフェースのMTUが自動的に変更されるようだ。

そこで、出力側インターフェースのFastEthernet1/0.0にフレッツのMTU(1454)を設定した。

interface FastEthernet1/0.0
  ip address 10.0.1.2/24 
  ip mtu 1454
  no shutdown

IXシリーズの場合、物理インターフェースを設定すると、トンネルインターフェースのMTUやMSSは暗号化設定の内容により自動的に設定されるとのこと。

トンネルインターフェースを確認してみたら、今度は目論見どおりにMTUが1374になっていた。

conoha-gateway(config)# show interfaces Tunnel0.0 
Interface Tunnel0.0 is up
  Fundamental MTU is 0 octets
  Current bandwidth 100M b/s, QoS is disabled
  (途中省略)
  Encapsulation TUNNEL:
    Tunnel mode is ipsec (ether-ip ip)
    Tunnel is ready
    Destination address is xxx.xxx.xxx.xxx
    Source address is 10.0.1.2
    Nexthop address is 10.0.1.253
    Outgoing interface is FastEthernet1/0.0
    Interface MTU is 1374
    Path MTU is 1454
  (省略)

試しにMTUサイズを越えたデータサイズでpingを打ってみると、

yui%ping -M do -s 1347 10.0.0.3
PING 10.0.0.3 (10.0.0.3) 1347(1375) bytes of data.
^C
--- 10.0.0.3 ping statistics ---
4 packets transmitted, 0 received, +4 errors, 100% packet loss, time 3033ms

今度は疎通しないのでOKっぽい。

OSPFのためのMTU再設定

OSPFは互いのインターフェースのMTUが違うとFULLステートにならないのでMTUの再設定をする。

IX2025側

IX2025はOSPF設定で指定されているインターフェース側でおこなう。
VPS側にOSPFを流しているインターフェースを確認する。

ip router ospf 1
  router-id 192.168.0.40
  area 0
  area 300
  area 301
  network FastEthernet0/0.0 area 0
  network FastEthernet1/0.0 area 301
  network BVI1 area 300

VPS側にOSPFを流しているインターフェースはブリッジインターフェースのBVI1である。
従って設定すべきは物理インターフェース(FastEthernet0/1.0)ではなくブリッジインターフェースであるBVI1なので以下のように設定する。

interface BVI1
  ip address 10.0.0.2/24 
  ip mtu 1347
  (途中省略)
  bridge-group 1
  no shutdown

OpenBSD側のMTU設定

OpenBSD側のMTUもIX2025側と同じ値にしておかないとOSPFでFULLにならない。
OpenBSD側ではSoftEtherでIPsecを処理していて、tapインターフェース(tap1)を介してOpenBSDネットワークと接続している。
以下のようにしてOpenBSDのtapインターフェースにMTUを設定する。

ifconfig tap1 mtu 1374

起動時に自動的に設定されるように/etc/hostname.tap1にも設定しておく。

inet 10.0.0.3  255.255.255.0
mtu 1338

Fortigate側のMTU設定

自宅側でVPNと同じセグメントにある固定IP用のFortigate50E側インターフェースもOSPFを喋っているので同様にMTUの再設定する。
mssを設定する必要があるかわからんけど設定しておいた。

# config system interface
(interface) # edit wan2
(wan2) # set mtu-override enable
(wan2) # set mtu 1374
(wan2) # next
(interface) # end

それでも何かおかしい。

これ良いと思ったので最終確認でMTUぴったりのデータサイズ1346[=1374-20(IPヘッダ)-8(ICMPヘッダ)]でVPSへpingを打ってみるが応答が無い。

shin@yui[7]%ping -M do -s 1346 10.0.0.3
PING 10.0.0.3 (10.0.0.3) 1346(1374) bytes of data.
^C
--- 10.0.0.3 ping statistics ---
4 packets transmitted, 0 received, 100% packet loss, time 3029ms

なんで通過せんの?
じゃぁ、いくつなら疎通するのか?
データサイズを減らして行ったら1310バイトで疎通した。

root@yui:/home/shin# ping -M do -s 1310 10.0.0.3
PING 10.0.0.3 (10.0.0.3) 1310(1338) bytes of data.
1318 bytes from 10.0.0.3: icmp_seq=1 ttl=254 time=6.57 ms
1318 bytes from 10.0.0.3: icmp_seq=2 ttl=254 time=6.73 ms
1318 bytes from 10.0.0.3: icmp_seq=3 ttl=254 time=6.30 ms
1318 bytes from 10.0.0.3: icmp_seq=4 ttl=254 time=6.40 ms
^C
--- 10.0.0.3 ping statistics ---
4 packets transmitted, 4 received, 0% packet loss, time 3005ms
rtt min/avg/max/mdev = 6.301/6.502/6.733/0.165 ms

ということはMTUは1338(=1310+28)なのか?

後半に続く。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0