/var/log/study

つまり雑記

Giteaをサクッと動かす

自宅環境の管理にansibleを使いたくなったので、その前にgitのリポジトリを動かすことにした。

gitlabでも良いのだが、最近の動向を見ていると結構色々なものがついてきて重厚な印象があったので、今回はGiteaにした。

github.com

検証は以下のバージョンで実施した。

https://github.com/go-gitea/gitea/commit/b333e7129d26abb64cdd34e67e39cfe34fdf5bb1

動かしたか

自宅に閉じた環境なのでhttpオンリー。ホスト側の適当なポートとコンテナ内の22をつなぐとsshでも利用できると思われる。

データディレクトリをマウントしているのは、その配下に色々とデータが書かれるため。

docker run -d -v ${PWD}/data:/data/ -p 3000:3000 gitea/gitea:latest

リポジトリの見た目

f:id:yaaamaaaguuu:20180311022841p:plain

気づいたこと

  • 特に期待していなかったが、日本語対応がシッカリしている。
  • リポジトリの機能
    • 普通のリポジトリ
      • コミットごとの差分の普通に見れる
    • MR
    • issue
    • wiki
    • リリース
    • アクティビティログ
  • オーガニゼーションが作れる

今後運用してみて知見が溜まったらまたブログにまとめる

RubyのProcess.detachを学ぶ

タイトルの通り。

マルチプロセスなEchoサーバーをRubyで書く際に、なるべくRubyの便利機能を排除して書きたかった。

Echoサーバー程度だとそもそも規模が小さいのでほぼ問題なく書けるのだが、子プロセスの扱いだけを悩んでしまった。

特に子プロセスの終了を親側で待つ必要が無いが、子プロセスの状態を回収しないとゾンビプロセスが発生してしまう。

ゾンビプロセスが湧くのはプロセスを見たときにイマイチなので回避したい。 そんなときにRubyの便利機能 Process.detach を見つけた。

どんな方法で実現されているのか?を知りたいのでコードを見ることにする。

github.com

サーッと、 Rubyprocess.c というファイルを眺めていると、proc_detachProcess.detach の実装に相当していそう。

色々とコメントが付いている。

https://github.com/ruby/ruby/blob/trunk/process.c#L1132-L1175

雑に要約すると以下。

  • マルチプロセスなプログラムで親プロセスが、子プロセスのステータスを回収しないと、子プロセスがゾンビになるよ
  • それを防ぐために、 detach ではメインのスレッドと、子プロセスを待つスレッドを分けるよ
  • 子プロセスを明示的に待つ必要がない時に利用してね

コメントにユースケースとかデザインとかがしっかり書き込まれているのは便利。

ESXi6.5にUSB 3.0のLAN Adaptorでnicを増やす

タイトルの通り。

ESXi6.5にUSB 3.0のLAN Adaptorでnicを増やしたかった。

手順は以下の通り。

https://norikichi.net/?p=1522

このブログで伝えたいことは、上記の手順が、以下の商品でも問題なく動作したよ!って事。

あと、ESXiは一度Rebootしないとnicが認識されなかった。 もしかしたらネットワークのリスタートでも良いのかもしれない。

iron functions の web uiを試す

yaaamaaaguuu.hatenablog.com

上記の続き

iron functions の web ui はきちんと開発されているよう

github.com

動かしてみる

core@coreos004 ~ $ ip a
2: ens192: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:50:56:ad:ce:53 brd ff:ff:ff:ff:ff:ff
    inet 172.0.1.36/24 brd 172.0.1.255 scope global dynamic ens192
       valid_lft 70170sec preferred_lft 70170sec
    inet6 fe80::250:56ff:fead:ce53/64 scope link
       valid_lft forever preferred_lft forever
core@coreos004 ~/iron_functions $ pwd
/home/core/iron_functions
# iron function を動かす
core@coreos004 ~/iron_functions $ docker run --rm -it --name functions -v ${PWD}/data:/app/data -v /var/run/docker.sock:/var/run/docker.sock -p 8080:8080 iron/functions
# iron function の ui を動かす
core@coreos004 ~ $ docker run --rm -it --link functions:api -p 4000:4000 -e "API_URL=http://172.0.1.36:8080" iron/functions-ui

こんな感じで docker run さえ行えば簡単に動き出す。 本当はdocker-composeなどにまとめたほうが良いのかもしれないが。

f:id:yaaamaaaguuu:20180225011931p:plain

UIから出来ることは以下。

  • プロジェクトを作る
  • プロジェクト配下のルーティングとキックするコンテナを指定する
    • 当然ルーティングの編集、削除も出来る
  • 指定したルーティングのキックをする
  • IronFunctionsのSwaggerに飛べる

UIを眺めていて、特にルーティングとキックするイメージの指定の際は、結構細かいことを指定可能な事が認識できた。 タイムアウトとか並列度とかは後日試そうと思う。

プロジェクト内のスクショ

f:id:yaaamaaaguuu:20180225012510p:plain

新しいルーティングのスクショ

f:id:yaaamaaaguuu:20180225012543p:plain

ルーティングを走らせるUIのスクショ

f:id:yaaamaaaguuu:20180225012637p:plain

iron functions を試す

世の中がサーバーレスアーキテクチャ!と言い出して数年たった。個人的な感想としてlambdaのイベントからキックされるモデルはとても良いと思う反面、APIゲートウェイとlambdaを組み合わせるアーキテクチャは負けだなぁと感じている。

話は変わるが、エンジニアのレイヤ的にもプログラミング言語的にも多様性がある環境では、「バッチなどの処理は問題ないがAPIに仕立てるのは...」 という場面に出くわすようになる。バッチ処理をコンテナ化したらAPIサーバーに仕立ててくれるOSSが無いかなぁ?などと思って見つけたのが iron function というサーバーである。

負けだなぁと思っていたアーキテクチャも、立場と捉え方が変わると欲しかったものに変わるもんだなぁと言うことも学べた。

とりあえず今日のブログは、モチベーションが下がらないうちにチュートリアルまで。後日、CLIツールやWeb UIなども検証してブログにするつもり

Iron.io Open Source - Functions

iron functions とは?

とあるURLに対して、実行するコンテナを登録できる、AWS API Gateway と lambda を組み合わせたようなサーバー

雑に特徴を書き下すと以下のような感じ

  • API
    • プロジェクトの作成ができる
    • プロジェクト配下のパスに、キックするDockerコンテナを登録する
    • http://${IP}:${PORT}/r/${PROJECT_NAME}/${REGISTER_PATH}
    • 登録されたパスで、Dockerコンテナをキックできる
    • キックされたDockerコンテナの標準出力がAPIのレスポンスになる
  • 利用可能なコンテナ
    • dockerhubに公開されいてるもの
    • きちんと立てたプライベートレジストリ
      • http認証しか無いinsecureなPrivateのコンテナレジストリを利用するのは現状無理そう
  • 構築
    • Docker run するだけ
  • その他
    • CLIがある
    • Web UIがある

基本的な検証

利用環境はvSphere環境上に立てたCoreOSの上

core@coreos004 ~ $ ip a
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: ens192: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
    link/ether 00:50:56:ad:ce:53 brd ff:ff:ff:ff:ff:ff
    inet 172.0.1.36/24 brd 172.0.1.255 scope global dynamic ens192
       valid_lft 86276sec preferred_lft 86276sec
    inet6 fe80::250:56ff:fead:ce53/64 scope link 
       valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 02:42:d4:7f:04:bd brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 scope global docker0
       valid_lft forever preferred_lft forever
core@coreos004 ~ $ cat /etc/os-release 
NAME="Container Linux by CoreOS"
ID=coreos
VERSION=1632.3.0
VERSION_ID=1632.3.0
BUILD_ID=2018-02-14-0338
PRETTY_NAME="Container Linux by CoreOS 1632.3.0 (Ladybug)"
ANSI_COLOR="38;5;75"
HOME_URL="https://coreos.com/"
BUG_REPORT_URL="https://issues.coreos.com"
COREOS_BOARD="amd64-usr"
core@coreos004 ~ $ docker version
Client:
 Version:      17.09.1-ce
 API version:  1.32
 Go version:   go1.8.5
 Git commit:   19e2cf6
 Built:        Thu Dec  7 22:19:00 2017
 OS/Arch:      linux/amd64

Server:
 Version:      17.09.1-ce
 API version:  1.32 (minimum version 1.12)
 Go version:   go1.8.5
 Git commit:   19e2cf6
 Built:        Thu Dec  7 22:19:00 2017
 OS/Arch:      linux/amd64
 Experimental: false

構築

適当にディレクトリをほって、docker run するだけ

core@coreos004 ~/iron_functions $ pwd
/home/core/iron_functions
core@coreos004 ~/iron_functions $ docker run --rm -it --name functions -v ${PWD}/data:/app/data -v /var/run/docker.sock:/var/run/docker.sock -p 8080:8080 iron/functions

動作チェックは手元のPCから以下のコマンド

⋊> ~ curl http://172.0.1.36:8080
{"goto":"https://github.com/iron-io/functions","hello":"world!"}

チュートリアル的な

プロジェクト作成 -> パスとコンテナの登録 -> 実行

プロジェクト名はmyapp, パスはhello, 実行するコンテナはiron/hello となっており、最終的には http://172.0.1.36:8080/r/myapp/helloAPIが叩けるようになる

まずプロジェクトの作成を手元のPCからcurlで実行

#コマンド
curl -H "Content-Type: application/json" -X POST -d '{"app": { "name":"myapp" }}' http://172.0.1.36:8080/v1/apps
#レスポンス
{"message":"App successfully created","app":{"name":"myapp","config":null}}

パスの登録も手元のPCからcurlで実行

#コマンド
curl -H "Content-Type: application/json" -X POST -d '{
         "route": {
             "path":"/hello",
             "image":"iron/hello"
         }
     }' http://172.0.1.36:8080/v1/apps/myapp/routes
# レスポンス
{"message":"Route successfully created","route":{"app_name":"myapp","path":"/hello","image":"iron/hello","memory":128,"headers":{},"type":"sync","format":"default","max_concurrency":1,"timeout":30,"idle_timeout":0,"config":{},"jwt_key":""}}

コンテナの動作チェック。ちなみに初回実行時はコンテナのpullで多少時間がかかる

curl http://172.0.1.36:8080/r/myapp/hello

出力

Hello World!

まとめ

とりあえず、コンテナを登録して実行するところまでは速攻で終わった。めちゃ簡単。

前述のとおり、明日にでもWebUIとCLIを試した記事を挙げるつもり。

VMware環境でContainerLinux (CoreOS) の基本的プロビジョニングの仕方

ものすごい今更感のあるネタだけれども、世の中に出回っている情報が???という気持ちがしたので書いておく。

ESXiにCoreOSをインストールするには?みたいなことを調べる、以下の様な情報が出て来る。

VMware Knowledge Base

上記は2015年の記事で、おそらく現在は当時と事情が異なる。(はず。)

大前提

  • OVAをデプロイしようとすると最後にカスタマイズのウィザードが出て来る
    • そこでcloud-configを指定してあげたら終了
  • 学習目的であればKBの通り一旦オートログインでcloud-configを作るほうが便利
  • つまり動くcloud-configがあれば、auto-loginなぞ有効にしなくても良いということ。

実際に出てくるウィザード

f:id:yaaamaaaguuu:20180211203317p:plain

こんなに丁寧に、cloud-configのURLは?と聞かれているので、適当なファイルサーバーを作ってそこからダウンロードするようにしたら良い。

もしくは、その2段上のInline cloud-config を使っても良いかもしれない。が、Inlineの方は、改行が微妙な事になっているので自分では検証していない。

EdgeRouter X を Prometheus の node_exporter でメトリクス収集をしてみる

世の中にzabbixとMackerelは実際の知見があったけど、Prometheusを利用してEdgeRouterのメトリクス収集の知見は多く無さそうだったし、今後Prometheusを活用できないのは困るので、練習として。

ただし、EdgeRouter(≒VyOS≒Vyatta) にサービスを追加するのをきちんと取り組もうとする (=vyosのインターフェースで色々と設定できるようにしてあげる) と死ぬほど大変そうなので、一旦はnode_exporterが問題無さそうに動くまで。

自分の記事で扱う範囲は、EdgeRouterにnode_exporterを設置するところまでなので、Prometheusサーバーの構築等は他の記事を参考にしてください。

方針

  1. EdgeRouterをMackerelで監視する方法が世の中に知見として転がっているので、それを真似する。
    • Mackerel-agent も node_exporter も golang で書かれていて、知見の転用がし易いから
  2. EdgeRouter上で追加のサービスをきちんと動かすための知見が少ないのでそこもお手軽にやる。 
  3. メトリクスに関しては後日整備する

やったこと

Prometheusの入門を眺める

knowledge.sakura.ad.jp

node_exporterをコンパイルする。

papix.hatenablog.com

上記を参考にしつつ、以下の様なコンパイル方法に落ち着いた

自分はmacの上でコンパイルして、EdgeRouterに持っていった。

go get github.com/prometheus/node_exporter
cd ${path}/${to}/node_exporter
env GOOS=linux env GOARCH=mipsle go build node_exporter.go

EdgeRouterのCPUは普段使うPCとアーキテクチャが違うけど、こういうときにgolangのクロスコンパイルの便利さが効いてくるなぁと思った。

EdgeRouterにコンパイル後のバイナリを置く

後述するinitスクリプトの兼ね合いで /opt/promehteus/node_exporter にした。

node_exporeter用のinit scriptを設置する

EdgeRouterはinit.d でサービスを取り扱っているので、以下のスクリプトをパクらせてもらって /etc/init.d/node_exporter とした。

Init.d script for prometheus node exporter · GitHub

自分でいじったのは、USERを prometheus から root にしたくらい。

実際の起動

sudo /etc/init.d/node_exporter start

Rebootしても大丈夫にする

EdgeRouterのOSの元になっているDebianとかでは chkconfig はなく、 update-rc.d などを使うことになっているが、 EdgeRouter内には無い雰囲気。

ので、今回はお手軽に /etc/rc.local/etc/init.d/node_exporter start を追記しておくことにする。

確実にもっといい方法があるのだけど、EdgeRouterのお作法がよくわからなかったので一旦はこれで。

実際の雰囲気

自分のルーター172.0.0.1 で動いているので以下のようになった。途切れているのはrebootした所で、監視のダウンタイムは大体3分くらい。

f:id:yaaamaaaguuu:20180128215101p:plain