2013年8月23日金曜日

EC2に関わるデータ転送料金(IN/OUT)を図にしてみた

スズキです。

下記のように図にしてみました。


情報元は下記の"EC2"のデータ転送量の価格と、


"Direct Connect"のデータ転送量の価格となります。


実は、リージョン間のデータ転送料金はインターネットのものと同じだと思ってました...
そして、EIPへのデータ転送料金もインターネットのものと同じだと思ってました...

でも、ちょっと自信も無いので間違ってたら、ご指摘お願いします。
--------
http://www.suz-lab.com

2013年8月15日木曜日

CentOS(6.4)でSecureCloud(3.5)を使ってみる(冗長構成編)

スズキです。

下記でSecureCloud(3.5)を試したのですが、アップデートされたことにより、
エージェントがディスクのマウントまでせずに、デバイスの作成までになっていることが
わかりました。
そして実は一番試したかったことなのですが、このことを利用して下記のように、
DRBDと組み合わして冗長化された暗号化ディスクを実現してみようとおもいます。


DRBDに関しては以前、下記の記事を書いており、ほぼ、そのままの手順でりようできます。
VPC上のEC2(CentOS 6.0)でDRBD(8.3)
ただし、設定ファイルは下記のようにしています。
# cat /etc/drbd.d/securecloud.res
resource securecloud {
    on drbd-1 {
        device /dev/drbd0;
        disk /dev/ed0;
        address xxx.xxx.xxx.xxx:7789;
        meta-disk internal;
    }
    on drbd-2 {
        device /dev/drbd0;
        disk /dev/ed0;
        address yyy.yyy.yyy.yyy:7789;
        meta-disk internal;
    }
}
※"disk"が暗号化ディスクのデバイス(/dev/ed0)になっています。

それでは動作確認です。

まずは一号機(drbd-1)の状況確認です。
# service drbd status
drbd driver loaded OK; device status:
version: 8.3.15 (api:88/proto:86-97)
GIT-hash: 0ce4d235fc02b5c53c1c52c53433d11a694eab8c build by phil@Build64R6, 2012-12-20 20:09:51
m:res          cs         ro                 ds                 p  mounted     fstype
0:securecloud  Connected  Primary/Secondary  UpToDate/UpToDate  C  /mnt/ebs/0  ext4
# ll /mnt/ebs/0/
合計 20
drwx------ 2 root root 16384  8月 15 19:16 2013 lost+found
-rw-r--r-- 1 root root     5  8月 15 19:34 2013 test.txt
プライマリでマウントされファイルも確認できています。

次に二号機(drbd-2)の状況確認です。
# service drbd status
drbd driver loaded OK; device status:
version: 8.3.15 (api:88/proto:86-97)
GIT-hash: 0ce4d235fc02b5c53c1c52c53433d11a694eab8c build by phil@Build64R6, 2012-12-20 20:09:51
m:res          cs         ro                 ds                 p  mounted  fstype
0:securecloud  Connected  Secondary/Primary  UpToDate/UpToDate  C
# ll /mnt/ebs/0/
合計 0
セカンダリでマウントされておらず当然ファイルも確認できません。

それでは1号機(drbd-1)のDRBDを停止します。
# service drbd stop
Stopping all DRBD resources:
.
# ll /mnt/ebs/0/
合計 0
今まで確認できていたファイルも確認できなくなりました。

この状態で2号機(drbd-2)を確認します。
# service drbd status
drbd driver loaded OK; device status:
version: 8.3.15 (api:88/proto:86-97)
GIT-hash: 0ce4d235fc02b5c53c1c52c53433d11a694eab8c build by phil@Build64R6, 2012-12-20 20:09:51
m:res          cs            ro                 ds                 p  mounted  fstype
0:securecloud  WFConnection  Secondary/Unknown  UpToDate/DUnknown  C
対向の一号機(drbd-1)がUnknownになっていることがわかります。

対向の一号機(drbd-1)がプライマリで無い場合は、このセカンダリがプライマリに
昇格できるので昇格します。
# drbdadm primary securecloud
# service drbd status
drbd driver loaded OK; device status:
version: 8.3.15 (api:88/proto:86-97)
GIT-hash: 0ce4d235fc02b5c53c1c52c53433d11a694eab8c build by phil@Build64R6, 2012-12-20 20:09:51
m:res          cs            ro               ds                 p  mounted  fstype
0:securecloud  WFConnection  Primary/Unknown  UpToDate/DUnknown  C
プライマリになったことが確認できます。

プライマリなのでマウントもできます。
# mount /dev/drbd0 /mnt/ebs/0
# ll /mnt/ebs/0/
合計 20
drwx------ 2 root root 16384  8月 15 19:16 2013 lost+found
-rw-r--r-- 1 root root     5  8月 15 19:34 2013 test.txt
マウントすると二号機(drbd-2)でも一号機(drbd-1)のときと同じファイルを
確認することができます。

というのを昔、"cryptsetup & DRBD"でもやってました...

懐かしい...
--------
http://www.suz-lab.com

Python版AWSコマンドラインインターフェースをプロキシー経由で利用する

スズキです。

結論から言いますと、環境変数(HTTP_PROXY)を設定することで簡単にできました。

まずはテスト用のプロキシーサーバ(squid)をインストール&起動します。
# yum -y install squid
...
# service squid start
...

プロキシーが正常に利用できることを確認します。
# curl --proxy localhost:3128 http://www.suz-lab.com
...

環境変数(HTTP_PROXY)を設定してコマンドラインインターフェースを実行します。
# export HTTP_PROXY=http://localhost:3129
# aws ec2 describe-instances
...
今までどおりの結果が出力されたらOKです。

"Fluentd → S3"のプロキシー経由のところも調査しないと...
--------
http://www.suz-lab.com

CentOS(6.4)でSecureCloud(3.5)を使ってみる(EBS暗号化編)

スズキです。

下記のようにインストールまでは試していたのですが、先にWindowsの方を試してしまい...
ようやく、本命のCentOS6でのEBSの暗号化です。

対象のEC2には暗号化したいEBSをアタッチしておきます。


アタッチしたEBSがSecureCloudのコンソールでも確認できます。


暗号化します。(完了までに少し時間がかかります)


"/dev/ed0"のデバイスで利用できることが確認できます。


ということで、"/dev/ed0"に対して"ext4"のファイルシステムを作成してマウントします。
# mkfs.ext4 /dev/ed0
...
# mount /dev/ed0 /mnt/ebs/0
...
# df -h
Filesystem            Size  Used Avail Use% マウント位置
/dev/xvde1            6.0G  3.5G  2.2G  62% /
none                  3.4G     0  3.4G   0% /dev/shm
/dev/ed0             1008M   34M  924M   4% /mnt/ebs/0
昔はAgentがマウントまでしていましたが、アップデートされてデバイス作成までに
なったようです。

ということはDRBDと連動できそうなので、次は冗長化に挑戦してみます!
--------
http://www.suz-lab.com

2013年8月9日金曜日

CentOS6(EC2)にServerProtectをインストール

スズキです。

下記のWIndowsに続いて、今度はLinuxです。
Windows(EC2)にServerProtectをインストール
AMIは次のものを利用しました。


事前に下記をインストールしておく必要があります。
# yum -y install \
glibc.i686 \
zlib.i686 \
compat-libstdc++-296.i686 \
libuuid.i686 \
nss-softokn-freebl.i686 \
libgcc.i686
...

ServerProtectはこちらからダウンロードできます。


ダウンロードしたら下記のようにインストールします。
(Activationコード(SP-XXXXX...)も予め取得しておきます)
# curl -OL http://files.trendmicro.com/products/splx/SPLX30_CentOS6.tgz
...
# tar xvzf SPLX30_CentOS6.tgz
SProtectLinux-3.0.bin
# ./SProtectLinux-3.0.bin -f RedHat x86_64 -n -s -S SP-XXXX-XXXXX-XXXXX-XXXXX-XXXXX-XXXXX -w no
Installing ServerProtect for Linux:
Unpacking...
Installing rpm file...
準備中...                ########################################### [100%]
   1:SProtectLinux          ########################################### [100%]
Activation successful.

Warning!!!
ServerProtect services will not be added into system initial services!
Please use "/sbin/chkconfig --level 345 splx on" to add splx into system initial services.
Instead of commands, you can execute "/opt/TrendMicro/SProtectLinux/SPLX.util/add_splx_service".

ServerProtect for Linux installation completed.

リアルタイムスキャンができるようにカーネルフックモジュール(KHM)も導入します。

カーネルのバージョンが必要なので確認しておきます。
# uname -a
Linux ip-10-120-24-215 2.6.32-358.11.1.el6.x86_64 #1 SMP Wed Jun 12 03:34:52 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux

カーネルフックモジュール(KHM)はこちらからダウンロードできます。

導入は下記の通りです。


導入は下記の通りです。
# cd /opt/TrendMicro/SProtectLinux/SPLX.module/
# curl -OL http://files.trendmicro.com/products/kernel/splx_kernel_module-3.0.1.0010.CentOS6_2.6.32-358.11.1.el6.x86_64.x86_64.tar.gz
...
# tar xvzf splx_kernel_module-3.0.1.0010.CentOS6_2.6.32-358.11.1.el6.x86_64.x86_64.tar.gz
splxmod-2.6.32-358.11.1.el6.x86_64.x86_64.o
splxmod-2.6.32-358.11.1.el6.x86_64.x86_64.o.md5

すべてが準備出来たら、実際にServerProtectを(自動)起動します。
# chkconfig splx on
# /etc/init.d/splx start
Starting ServerProtect for Linux:
Checking configuration file:                               [  OK  ]
Starting splxcore:
Starting Entity:                                           [  OK  ]
Loading splx kernel module:                                [  OK  ]
Starting vsapiapp:                                         [  OK  ]
ServerProtect for Linux core started.
                                                           [  OK  ]
Starting splxhttpd:
Starting splxhttpd:                                        [  OK  ]
ServerProtect for Linux httpd started.
                                                           [  OK  ]
ServerProtect for Linux started.
※カーネルフックモジュール(KHM)も有効なことが確認できます。

すると下記よりServerProtectの管理画面にアクセスできます。
(デフォルトはパスワード無しで"Log On"できます)
http://xxx.xxx.xxx.xxx:14942/

ログインすると下記のように概要を確認することができます。
(リアルタイムスキャンが有効になっていることも確認できます)


最後に下記で紹介した方法でテストしてみます。
EICARテストファイルでServerProtectのリアルタイムスキャンをテスト
実際には下記のようにダウンロードしてもファイルが配置されません。
# ls
SPLX30_CentOS6.tgz  SProtectLinux-3.0.bin
# curl -OL http://www.eicar.org/download/eicar.com.txt
...
# ls
SPLX30_CentOS6.tgz  SProtectLinux-3.0.bin
そしてコンソールのログには次のように記録されています。


これで、いろいろと楽になるはず。。。
--------
http://www.suz-lab.com

2013年8月7日水曜日

Vyatta(Core 6.6 R1)のクラスタリング機能の調査

スズキです。

下記資料の3章(Clustering)、P.174を参考に試してみました。
"Vyatta System High Availability REFERENCE GUIDE"
その前に、クラスタリングするVyattaでホスト名が重複しないように、
変更しておきます。("set system host-name ..."です)
vyatta@vyatta# set system host-name vyatta-1
[edit]
vyatta@vyatta# commit
[ system host-name vyatta-1 ]
Stopping enhanced syslogd: rsyslogd.
Starting enhanced syslogd: rsyslogd.

[edit]
vyatta@vyatta# save
Saving configuration to '/config/config.boot'...
Done
[edit]
vyatta@vyatta# run reboot
Proceed with reboot? (Yes/No) [No] Yes

Broadcast message from root@vyatta-1 (pts/0) (Tue Aug  6 03:18:21 2013):

The system is going down for reboot NOW!
[edit]
再度ログインしてプロンプトを確認すると、ホスト名が変更されていることがわかります。
$ ssh -i suz-lab_ap-northeast-1.pem -l vyatta xxx.xxx.xxx.xxx
Linux vyatta-1 3.3.8-1-amd64-vyatta #1 SMP Wed Mar 13 10:35:28 PDT 2013 x86_64
Welcome to Vyatta.
This system is open-source software. The exact distribution terms for
each module comprising the full system are described in the individual
files in /usr/share/doc/*/copyright.
Last login: Tue Aug  6 03:08:22 2013 from xxx.xxx.xxx.xxx
vyatta@vyatta-1:~$

次にファイルオーバー時に実行するテストスクリプトを用意しておきます。
$ sudo su -
# cd /etc/init.d/
# ls -l failover
-rwxr-xr-x 1 root root 32 Aug  7 03:57 failover
# cat failover
#!/bin/sh
date >> /tmp/test.txt
# ./failover
# cat /tmp/test.txt
Wed Aug  7 04:00:03 GMT 2013

そしてクラスタリングの設定です。
$ configure
[edit]
# set cluster interface eth0
[edit]
# set cluster pre-shared-secret secret
[edit]
# set cluster group aws
[edit]
# set cluster group aws primary   vyatta-1
[edit]
# set cluster group aws secondary vyatta-2
[edit]
# set cluster group aws service failover
[edit]
# commit
[ cluster ]
Stopping clustering... Done
Starting clustering... Done
[edit]
# save
Saving configuration to '/config/config.boot'...
Done
[edit]

するとHeartbeatが起動することが確認できます。
つまりVyattaのクラスタリング機能の実体はHeartbeatということになります。
$ ps ax | grep heartbeat
 3102 ?        SLs    0:00 heartbeat: master control process
 3115 ?        SL     0:00 heartbeat: FIFO reader
 3116 ?        SL     0:00 heartbeat: write: mcast eth0
 3117 ?        SL     0:00 heartbeat: read: mcast eth0
 3321 pts/2    S+     0:00 grep heartbeat

上記のテストスクリプトも適当に起動されてました。
$ cat /tmp/test.txt
Wed Aug  7 04:00:03 GMT 2013
Wed Aug  7 04:22:58 GMT 2013
Wed Aug  7 04:22:58 GMT 2013
Wed Aug  7 04:23:29 GMT 2013
Wed Aug  7 04:23:29 GMT 2013
Wed Aug  7 04:23:29 GMT 2013

実体であるHeartbeatの設定ファイルは次の通りです。
$ cat /etc/ha.d/ha.cf
keepalive 5000ms
deadtime 20
warntime 10000ms
initdead 30000ms
deadping 20000ms
logfacility daemon
mcast eth0 239.251.252.253 694 1 0
auto_failback off
node vyatta-1 vyatta-2
$ cat /etc/ha.d/haresources
vyatta-1  failover

ということで、下記でインストールしたAWSのCLIを利用して、EIPの付けかえと、
ルーティングテーブルを変更するフェイルオーバースクリプトを用意して、
VyattaにPython版AWSコマンドラインインターフェース(CLI)をインストールしてみた
次のMLを参考に相互監視をユニキャストでできれば、
Re: [Vyatta-users] Cluster heartbeat / change to ucast?
下記のようにVPC上のVyatta(on EC2)の冗長化も実現できるかもしれません。
"High Availability NAT"の作成(CentOS6)

次は、実際に実験してみます。。。
--------
http://www.suz-lab.com

VyattaにPython版AWSコマンドラインインターフェース(CLI)をインストールしてみた

スズキです。

下記のVyatta("@j3tm0t0"さん作)に

次の"Python版AWSコマンドラインインターフェース(CLI)"をインストールしてみました。


ただしVyatta内から".egg / .zip / .tar.gz"のファイルがダウンロードできなかったので、
適当なマシンで下記のよううにダウンロードして、Vyattaにアップロードする形で、
インストールしました。
# curl -OL https://pypi.python.org/packages/2.6/s/setuptools/setuptools-0.6c11-py2.6.egg
# curl -OL https://pypi.python.org/packages/source/a/awscli/awscli-0.13.2.tar.gz
# curl -OL https://pypi.python.org/packages/source/d/docutils/docutils-0.11.tar.gz
# curl -OL https://pypi.python.org/packages/source/a/argparse/argparse-1.1.zip
# curl -OL https://pypi.python.org/packages/source/c/colorama/colorama-0.2.5.tar.gz
# curl -OL https://pypi.python.org/packages/source/s/six/six-1.3.0.tar.gz
# curl -OL https://pypi.python.org/packages/source/b/bcdoc/bcdoc-0.5.0.tar.gz
# curl -OL https://pypi.python.org/packages/source/b/botocore/botocore-0.13.1.tar.gz
# curl -OL https://pypi.python.org/packages/source/s/simplejson/simplejson-3.3.0.tar.gz
# curl -OL https://pypi.python.org/packages/source/o/ordereddict/ordereddict-1.1.tar.gz
# curl -OL https://pypi.python.org/packages/source/p/python-dateutil/python-dateutil-2.1.tar.gz
# curl -OL https://pypi.python.org/packages/source/j/jmespath/jmespath-0.0.2.tar.gz
# curl -OL https://pypi.python.org/packages/source/p/ply/ply-3.4.tar.gz
# curl -OL https://pypi.python.org/packages/source/r/requests/requests-1.2.0.tar.gz
Vyattaへのアップロードは下記のようになっています。
$ sudo su -
# cd /home/vyatta/
# ls -1
argparse-1.1.zip
awscli-0.13.2.tar.gz
bcdoc-0.5.0.tar.gz
botocore-0.13.1.tar.gz
colorama-0.2.5.tar.gz
docutils-0.11.tar.gz
jmespath-0.0.2.tar.gz
ordereddict-1.1.tar.gz
ply-3.4.tar.gz
python-dateutil-2.1.tar.gz
requests-1.2.0.tar.gz
setuptools-0.6c11-py2.6.egg
simplejson-3.3.0.tar.gz
six-1.3.0.tar.gz
まずは"easy_install"を利用できるようにします。
# sh.distrib setuptools-0.6c11-py2.6.egg
...
そして、必要なパッケージを含め"awscli"までインストールします。
# easy_install docutils-0.11.tar.gz
...
# easy_install argparse-1.1.zip
...
# easy_install colorama-0.2.5.tar.gz
...
# easy_install six-1.3.0.tar.gz
...
# easy_install bcdoc-0.5.0.tar.gz
...
# easy_install simplejson-3.3.0.tar.gz
...
# easy_install ordereddict-1.1.tar.gz
...
# easy_install python-dateutil-2.1.tar.gz
...
# easy_install ply-3.4.tar.gz
...
# easy_install jmespath-0.0.2.tar.gz
...
# easy_install requests-1.2.0.tar.gz
...
# easy_install botocore-0.13.1.tar.gz
...
# easy_install awscli-0.13.2.tar.gz
...
シェル上で補完ができるように下記も設定しておきます。(下記参照)
CentOS6でのPython版AWSコマンドラインツールの環境設定
(/etc/profile.d/awscli.sh)
# cat /etc/profile.d/awscli.sh
if [ -x /usr/local/bin/aws ]; then
    AZ=`curl -s http://169.254.169.254/latest/meta-data/placement/availability-zone`
    export AWS_DEFAULT_REGION=`echo $AZ | cut -c 1-$((${#AZ} - 1))`
    complete -C aws_completer aws
fi
最後にVyattaにログインしなおすと下記のようにタブで補完しながらAWS(CLI)の
コマンドが実行できます。("IAM Role"使ってます)
$ aws ec2 describe-instances
...

次はVyattaのHeartbeat(cluster)の調査です。
--------
http://www.suz-lab.com

2013年8月5日月曜日

"Vyatta on EC2"でCloudHubパターン(CDP)

スズキです。

下記のようにVyattaでVPC間VPNまで成功したので、
今度はCDPCloudHubパターンを試してみました。


図でかくと、こんな感じでしょうか?


VPCをもう一つVyattaを利用してVPN接続するわけですが、CloudHubを行うには、
BGPのAS番号が重複しないようにする必要があります。


あとは、下記と同じ方法で"VPN Connection"をもう一つ有効にします。
"Vyatta on EC2"でVPC間VPN

HubとなるVPCの"Route Propagation"が設定されている"Route Table"を確認すると、
VPN接続した二つのVPCの経路情報が反映していることがわかります。


ちなみにHubにつなぐVPCのVyattaが所属するサブネットの"Route Table"は次の通りです。


疎通させる両端のEC2インスタンス(10.1.1.5と10.2.1.5)に付与している
セキュリティグループは下記のようにしています。
("10.X.0.0/16"のVPCがCloudHubにVPN接続することを想定しています)


この状態で接続確認(10.2.1.5 → 10.1.1.5)してみると、無事、疎通することができました。
[root@ip-10-2-1-5 ~]# ping 10.1.1.5
PING 10.1.1.5 (10.1.1.5) 56(84) bytes of data.
64 bytes from 10.1.1.5: icmp_seq=1 ttl=61 time=7.14 ms
64 bytes from 10.1.1.5: icmp_seq=2 ttl=61 time=6.39 ms
64 bytes from 10.1.1.5: icmp_seq=3 ttl=61 time=6.36 ms
64 bytes from 10.1.1.5: icmp_seq=4 ttl=61 time=6.41 ms
64 bytes from 10.1.1.5: icmp_seq=5 ttl=61 time=6.38 ms

次は冗長構成。(中身はHeartbeatっぽいけど...)
--------
http://www.suz-lab.com

2013年8月2日金曜日

グローバルサインの証明書でCloudFrontの独自SSL証明書を利用してみた

スズキです。

ちょっと時間が空きましたが、下記のようにCloudFrontの独自SSL証明書を利用する
準備ができたので、今回は、ようやくSSL証明書のインストールです。
時間が空いてしまった理由は、こちらから独自SSL証明書の申請を行い、
許可を待っていたからです。


許可メールが届いたら、証明書のアップロードです。
今回はグローバルサインの証明書(クイック認証SSL)を使いました。

ちなみに、グローバルサインの証明書は同一コモンネームであれば、
1ライセンスの購入でOKなので、CloudFrontの独自SSL証明書の機能に利用する場合も
1ライセンスの購入でOKとなります。


証明書のアップロードはPython版AWSコマンドラインツールを利用しました。
# aws iam upload-server-certificate \
> --server-certificate-name ssl.suz-lab.com \
> --path /cloudfront/ \
> --private-key       "`cat ssl.suz-lab.com.key`" \
> --certificate-body  "`cat ssl.suz-lab.com.crt`" \
> --certificate-chain "`cat ca.crt`"
{
    "ServerCertificateMetadata": {
        "Path": "/cloudfront/",
        "ServerCertificateName": "ssl.suz-lab.com",
        "ServerCertificateId": "XXXXXXXXXXXXXXXXXXXXX",
        "Arn": "arn:aws:iam::000000000000:server-certificate/cloudfront/ssl.suz-lab.com",
        "UploadDate": "2013-08-02T12:53:09.538Z"
    },
    "ResponseMetadata": {
        "RequestId": "00000000-0000-0000-0000-000000000000"
    }
}
※CloudFrontで利用するbには"--path /cloudfront/"が必要です。

そして、実際にAWSコンソールでCloudFrontにアップロードした証明書を適用します。



※"SSL Certificate"にアップロードした"ssl.suz-lab.com"が選択できるようになっています。

最後に再度ブラウザで確認すると、今回は証明書が有効になり、問題なくページが
閲覧できることが確認できます。


次は、さらにマルチオリジン...
--------
http://www.suz-lab.com

ServerProtect(Windows)からウィルス検知などをメール通知

スズキです。

下記のようにServerProtectの導入をしてきましたが、


最後はウィルスを検知したときのメール通知です。

といっても下記のようにコンソールから設定するだけです。
("Mail Server"はSMTPサーバ機能が有効な前提で"localhost"です)


この状態で再度、EICARテストファイルをダウンロードしてメールが通知されたら
OKです。

同じことをCentOSでもやっておこう。。。
--------
http://www.suz-lab.com

"Windows 2008 R2 SP1"(EC2)でSMTPサーバを立ち上げる

スズキです。

下記のようにWindowsのウィルス対策とリアルタイムスキャンのテストまでできたので、
今度はウイルスの検知の通知をメールで行えるようにしてみるのですが、
その前にSMTPサーバの構築です。。。

SMTPサーバはサーバマネージャーから機能を追加することで利用可能です。
(テスト用のTelnetクライアントも有効にしています)



この状態でSMTPの確認してみます。
C:\Users\Administrator>telnet localhost 25
220 WIN-XXXXXXXXXXX Microsoft ESMTP MAIL Service, Version: 7.5.7601.17514 ready
at  Wed, 31 Jul 2013 13:14:39 +0000
HELO localhost
250 WIN-XXXXXXXXXXX Hello [127.0.0.1]
MAIL FROM: suzuki@suz-lab.com
250 2.1.0 suzuki@suz-lab.com....Sender OK
RCPT TO: suzuki@suz-lab.com
550 5.7.1 Unable to relay for suzuki@suz-lab.com
リレーができずに送信できませんでした。

ということでリレーの設定です。






この状態で再度SMTPのテストを行ってみます。
C:\Users\Administrator>telnet localhost 25
220 WIN-XXXXXXXXXXX Microsoft ESMTP MAIL Service, Version: 7.5.7601.17514 ready
at  Wed, 31 Jul 2013 13:33:55 +0000
HELO localhost
250 WIN-XXXXXXXXXXX Hello [127.0.0.1]
MAIL FROM: suzuki@suz-lab.com
250 2.1.0 suzuki@suz-lab.com....Sender OK
RCPT TO: suzuki@suz-lab.com
250 2.1.5 suzuki@suz-lab.com
DATA
354 Start mail input; end with .
SUBJECT: TEST

TEST
.
250 2.6.0  Queued mail for delivery
今度は無事に送信できました。

ということで、ようやくServerProtectのウイルスの検知のメール通知設定です。
--------
http://www.suz-lab.com