dnsimpleでダイナミックDNSをつかう
December 23, 2014 at 08:02 PM | categories: web, dns |
dnsimple ではAPIからのDNSレコードアップデートができるので、簡単にダイナミックDNSがつかえる。
手順は以下の通り。
- 普通にdnsimpleでAレコードを登録する
- 登録したレコードのrecord idをしらべる。 record id は管理画面のURL
https://dnsimple.com/domains/example.com/records/<record id>/edit
をみればわかる。 - レコードを更新するスクリプトをcronに登録する。 スクリプトは http://developer.dnsimple.com/ddns/ でダウンロードできる。
RECORD_ID
には上記の値、DOMAIN_ID
にはApexドメインを設定する。
TCPの黒歴史:謎のオプションskeeterとbubbaについて
February 13, 2014 at 06:00 PM | categories: web, history |
TCPについて調べてたら、skeeter
とbubba
という謎のオプションを見つけた。
調べてみたところ、TCPを策定した人達の黒歴史らしい。
以下意訳です。
あー、これは忘れられそうもないんだけど黒歴史だね。
ben levyとstevと私1 がFTPをやってたときにつくったものなんだ。 Bridghan2とstevがけしかけたんだけど、アイディアはシンプルで、鍵管理システムなしに暗号化できるように、デフィー・ヘルマン鍵共有をtcpで直接するためのものだった。 それには認証の仕組みは想定してなくて、パスワードみたいなものが共有されている前提だったんだ。 シンプルな実装で大体は動いてたんだけど、介入者攻撃には脆弱だったのが欠点だった。
なんで"skeeter"3 と"bubba"4 かって?それはstevに聞いてくれ。
なかなかセンスのあるネーミングですね。気になる人はstev氏に聞いてみてください。
参考
-
Kastenholz, Frank ↩
-
たぶんDave Bridgham のこと http://en.wikipedia.org/wiki/FTP_Software ↩
-
トンボのことらしい ↩
-
でかい人のことらしい ↩
あなたのgithub pagesを無料で高速化する方法
February 13, 2014 at 09:10 AM | categories: web, github |
このブログはgithub pages上に構築していますが、github pagesに引きずられて自分のブログも重くなるということが時々ありました。
がんばってブログを書いた次の日にアクセスできなくなってたりすると悲しいので何とか高速かつ安定した配信をする方法ないかなーと思って調べてみたところ、なんとgithub pagesに置いたコンテンツをCDNから配信させることができるようになったらしいです!
Faster, More Awesome GitHub Pages
どういうドメインでgithub pagesを配信しているかによって対応方法は違うので以下を読んで各自適切な設定をして下さい。
目次
デフォルトのgithub pagesのドメイン( username.github.io ) を使用している場合
既に対応しています。 なにもやる必要はありません。
カスタムサブドメイン ( www.example.com ) を使用している場合
CNAMEの向き先をusername.github.io に向けるだけで対応できます。
Apexドメイン ( example.com ) を使用している場合
Apexドメインというのはサブドメインでない基本のドメイン部分のことで、そこを直接github pagesにIPに向くようにAレコードに設定している場合です。
この場合はDNSのプロバイダがALIASレコードをサポートしていれば、ALIASが username.github.io
を向くようにすることで対応できます。
ALIASレコードに対応していない場合は残念ながらCDNを有効にできません。ちなみにお名前.comはALIASには対応していないので、その場合は他のDNSプロバイダに移行するしかありません。
お名前.comからDNSimpleに移行する場合
このブログは残念ながらお名前.comでApexドメインをgithub pagesのIPに向けていたのでDNSimpleに移行することにしました。以下はお名前.comからDNSimpleに移行した際の手順です。
なお、この場合はタイトルに反して無料ではありません。
(ちなみにここではドメインの移管はせずに、DNSの設定だけをDNSimpleに移しました)
1. DNSimpleに登録する
DNSimpleはユーザビリティに主眼を置いたDNSサービスのようで1 、APIでDNSレコードを更新したりAWSやHerokuやgithub pagesといったクラウドサービスとの連携が簡単にできます。
DNSimple
登録時に対象ドメインを聞かれるので、そのとき移行したいドメインを入力します。
ちなみに月額3ドルから2 ですが30日は無料でつかえます。誰かを紹介すると、紹介した人とされた人の両方の無料期間が伸びます。上のリンクにはキャンペーンコードが埋め込まれているので、この記事を読んだ人はぜひ上のリンクから登録してください。
登録が完了するだけで一通りのUIが使えるようになりますが、DNS機能が有効になるのは決済情報を入力してからです。
2. DNSimpleでgithub pagesとの連携を開始する
dnsimpleの管理画面 に行くとServicesというボタンがあるのでそこからgithub pagesと連携を開始します。
3. ネームサーバの設定をする
お名前.com の以下のページの「他のネームサーバーを利用」からDNSimpleのネームサーバを指定します。
https://www.onamae.com/domain/navi/ns_update/input?btn_id=navi_menu_domain_nsupdate_leftmenu_12
登録するサーバは以下です。
- ns1.dnsimple.com
- ns2.dnsimple.com
- ns3.dnsimple.com
- ns4.dnsimple.com
この段階ではお名前.com側で設定しているAレコードはそのまま残しておきます。変更するのはネームサーバのみです。 そうしておかないと、ネームサーバの変更が伝搬するまでの間にお名前.comに問いあわせが来た場合NXDOMAIN扱いになってします。
4. dnsの更新を確認する
更新前は以下
% dig mojavy.com mojavy.com. 259 IN A 207.97.227.245
もしくは以下
% dig mojavy.com mojavy.com. 259 IN A 204.232.175.78
のようになっていたはずですが、反映が完了すれば上記とは違うIPが返ってくるはずです。 反映までには時間がかかるので気長に待ちます。完全に反映されるには3日ほどかかるようです。
% dig mojavy.com mojavy.com. 3600 IN A 103.245.222.133 % dig taksatou.github.io taksatou.github.io. 2973 IN CNAME github.map.fastly.net. github.map.fastly.net. 15 IN A 103.245.222.133
5. CDNの確認
webpagetest のような計測ツールを使ってもいいですが、CDNからのレスポンスはX-xxx
のようなヘッダがつくようなのでcurlでも確認できます。
% curl -v mojavy.com 2>&1 > /dev/null | grep 'X-' < X-Served-By: cache-ty67-TYO < X-Cache: HIT < X-Cache-Hits: 5 < X-Timer: S1392104522.668435574,VS0,VE0
もう完全に反映されたと思ったらお名前.com側で設定しているAレコードは無効にして大丈夫です。
その他参考
まとめ
- github pagesをつかえば無料でCDNから配信できる!
- Apexドメインは慎重に使うべきだったという教訓を得た
- DNSimple便利
全文検索システムの比較 - Elasticsearch vs Solr vs Amazon CloudSearch
February 10, 2014 at 01:05 AM | categories: solr, aws, elasticsearch, web |Elasticsearch、Solr、及び Amazon CloudSearchの比較検討を行った。
目次
候補の選定方法
候補を選定するにあたって、以下の特徴をもっていることを前提とした。 LuceneやGroongaを使えば何でもできるが、ここでは対象としない。
- ウェブベースのインターフェースを持つ
- インデックスの更新はほぼリアルタイムに反映される
- スケールアウトが容易
Solr
https://lucene.apache.org/solr/
Luceneをバックエンドにした全文検索システム。バージョン4になってから大幅に機能が増強された。
長所
- 実績が十分ある
- 機能豊富
短所
- クラスタを構築して運用するには手間がかかりそう
- SolrCloudはzookeeperに依存するためサーバ台数もかさむ
Elasticsearch
Solrと同じくLuceneをバックエンドにした全文検索システム。開発者の言1によると、Solrより洗練された分散モデルで2 、使いやすいAPIを備えている。
長所
- アーキテクチャやUIが今風
- クラスタの構築が簡単
- KibanaやLogstashと連携できる
- Percolate APIというpush通知のような機能を簡単に実装するためのものがある
短所
- 後発な分ノウハウの蓄積にやや不安が残る
- 未実装機能がいくらかある(あった。現時点(2014-02-09)では機能的にはほぼ追いついているように見える http://solr-vs-elasticsearch.com/ )
Amazon CloudSearch
http://aws.amazon.com/jp/cloudsearch/
AWS上で提供されている全文検索システム。EC2と同じく時間とトラフィックで課金される。現時点ではまだベータ。
長所
- 自動的にスケーリングしてくれる(エントリ数、リクエスト数に応じてインスタンスが自動的に増える)
- pdfやdocをそのまま送るだけでも適当にうまくやってくれる
- DynamoDBのデータをそのまま流してインデックスできる
短所
- 現状では東京リージョンがない
- テキスト解析のカスタマイズが限定的。現状、Stemming, Stopwords, Synonymsのみカスタム可能。
- N-gramとか形態素解析は自前で処理してからアップロードする必要がある
- ヒット位置を取る方法がない
- テキスト本文をインデックスと一緒に格納することはできない
比較項目別のまとめ
拡張性
SolrもElasticsearchもLuceneをバックエンドにしているので、Luceneでできることは基本的にはどちらでもできるはず。 Amazonは現状ではあまり拡張性はない。
性能
基本性能はSolrもElasticsearchも大差はなさそう。 Amazonは自動的にノードが追加されるので性能の問題はなさそう。ただし、ノードが自動追加されるタイミングとその時の挙動は未確認。
安定性
数年先行している分Solrがよいと思われるが、Elasticsearchも既に十分本番稼動実績はある。 Amazonはベータなので未知数。
リアルタイムデータ更新
いずれもほぼリアルタイムに更新できる。
日本語対応
SolrとElasticsearchはほぼ同等。kuromojiやmecabをつかえば形態素解析もできる。 Amazonはそれ自体では対応していないが、Luceneのtokenizer等を使って自前で前処理することで対応は可能。
スケーラビリティ
Amazonは完全に自動的にスケールアウトしてくれる。 Elasticsearchはインデックスのシャード数を作成時に決めておく必要があるが、スケールアウトは容易だと思われる。 Solrはv4からはElasticsearchと大体同等のスケーラビリティを備えるようになった。
参考リンクまとめ
- http://stackoverflow.com/questions/10213009/solr-vs-elasticsearch
- http://stackoverflow.com/questions/2271600/elasticsearch-sphinx-lucene-solr-xapian-which-fits-for-which-usage
- http://blog.kakipo.com/trouble-with-fluentd-and-elasticsearch/
- https://github.com/atilika/kuromoji
- http://www.elasticsearch.org/blog/percolator/
- http://blog.feedbin.me/2013/11/10/powering-actions-with-elasticsearch-percolate/
- http://docs.aws.amazon.com/cloudsearch/latest/developerguide/text-processing.html
- http://blog.mikemccandless.com/2011/06/lucenes-near-real-time-search-is-fast.html
- https://wiki.apache.org/solr/Solr4.0
- http://www.slideshare.net/kucrafal/battle-of-the-giants-apache-solr-vs-elasticsearch
所感
後発な分Elasticsearchが一番洗練されているように思います。 Solrは無難に導入できそうですが、スケールアウトが必要になったとき手間がかかりそうです。 Amazonはメリットも多いですが、現状では制限が多いので使いづらいと思います。
追記
- 2014/02/12 23:59:13: ElasticSearch → Elasticsearchに直しました
-
http://stackoverflow.com/questions/2271600/elasticsearch-sphinx-lucene-solr-xapian-which-fits-for-which-usage ↩
-
昔のSolrは単純なレプリケーションとシャーディングしかなかったので、クラスタを構築するのは大変だった ↩
ウェブエンジニアのためのオンラインツールまとめ
November 20, 2012 at 02:30 AM | categories: web, tips |The Web engineer's online toolboxというまとめ記事が便利そうだったので、実際に試しつつ抄訳してみました。(一部のコメントと体裁は変えています。)
目次
一覧
RequestBin
httpリクエストを保存するエンドポイントを作ってくれる。
Create a RequestBin のボタンをクリックするとURLが表示されるので、そこをHTTPクライアントからたたくとRequestBin側にリクエスト内容が記録される。 ソースも公開されてるのでローカルで立ちあげることもできる。
githubのwebhookのhelpも参考にどうぞ。
Hurl
httpリクエストを実行してくれる。パーマリンクも作ってくれるので、POSTリクエストもコピペで他の人と共有できる。
- 類似サービス: REST test test , Apigee console
httpbin
HTTPリクエスト側でレスポンスのHTTP status codeやレスポンスやリダイレクト、cookieなどを制御できる。HTTPクライアントのテストに便利。
- 類似サービス: UrlEcho
REDbot
HTTPのリソースをチェックしてくれる。問題を検出したら改善案のサジェストもしてくれる。
- 類似サービス: HTTP lint
WebGun
webhookを簡単に作るためのAPIを提供している。現在はまだベータっぽい。
Apify
ウェブページをスクレイピングしてJSON API化してくれる。 CSSセレクタかxpathに名前をつけて設定するだけでよしなにやってくれる。
Unicorn
前述のREDbotはHTTPをチェックしてくれるけど、こちらはHTMLドキュメントがW3Cに準拠してるかをバリデートしてくれる。
- 類似サービス: HTML lint
Feed validator
こちらはRSSとATOMフィードをバリデートしてくれる。
Link checker
リンクを再帰的にたどって、重複やリンク切れをチェックしてくれる。
Host tracker
ウェブサイトのモニタリングサービス。定期的にpingして、問題があった場合はメール通知してくれる。
Pingdom Full page test
ウェブページのロード時間を計測、解析してくれる。リクエストを実行するサーバは米国しかないので国内だとちょっと使いづらい。 類似サービスのWeb page testならTokyoが選べる。
HAR viewer
HTTP tracking toolsで生成されたHTTP Archive (HAR)形式のログをビジュアライズしてくれる。
CORS proxy
クロスドメインでjsを実行できるようにヘッダを追加してレスポンスしてくれるプロキシ。
Browserling
ブラウザ上で動くインタラクティブなクロスブラウザ。メジャーなブラウザは大体サポートされている。 動作は重いけど表示確認くらいになら無料のままでも使えそう。
WebSocket Echo Test
WebSocketをテストできるエコーサーバ。
YQL
ウェブサービスからとってきたデータをSQLっぽい言語で整形できる。
Yahoo Pipes
ウェブサービスをGUIでマッシュアップできる。
Apiary
良い感じのREST APIドキュメントをインタラクティブなインスペクタをつかってジェネレートできる。まだベータ。
- 類似サービス: Swagger
おわりに
- いくつかのツールはサーバに負荷をかけてしまう可能性があるので注意してつかってください。
- 他にもなにかあれば教えてもらえるとうれしいです。
About Me
mojavy |
Recent posts
95/5 Mbps とは
(August 30, 2015 at 04:22 PM)組み込み用プログラミング言語のパフォーマンス比較
(April 21, 2015 at 01:10 AM)最近読んだ本
(April 05, 2015 at 01:23 PM)Phabricatorを使ったワークフローについて
(March 02, 2015 at 08:55 PM)dnsimpleでダイナミックDNSをつかう
(December 23, 2014 at 08:02 PM)www2014のアドテク関連のResearch Trackメモ
(October 06, 2014 at 09:05 PM)flappymacs がMELPAに登録されました
(July 16, 2014 at 01:07 AM)EmacsでFlappy Birdっぽいもの書きました
(July 10, 2014 at 08:01 PM)
Recent Popular posts
Popular posts
Categories
- C (rss) (3)
- R (rss) (1)
- adtech (rss) (1)
- advent calendar (rss) (2)
- algorithms (rss) (2)
- android (rss) (2)
- aws (rss) (1)
- blog (rss) (2)
- blogofile (rss) (3)
- books (rss) (1)
- c++ (rss) (1)
- chef (rss) (4)
- common lisp (rss) (10)
- debian (rss) (2)
- dns (rss) (1)
- elasticsearch (rss) (1)
- elf (rss) (1)
- elisp (rss) (1)
- emacs (rss) (5)
- english (rss) (1)
- game (rss) (2)
- gearman (rss) (1)
- git (rss) (1)
- github (rss) (1)
- gitlab (rss) (1)
- golang (rss) (2)
- history (rss) (1)
- impress.js (rss) (1)
- internet (rss) (1)
- ios (rss) (3)
- jekyll (rss) (1)
- jenkins (rss) (1)
- linux (rss) (4)
- lisp (rss) (2)
- ltsv (rss) (1)
- lua (rss) (1)
- mac (rss) (3)
- mach-o (rss) (1)
- memo (rss) (2)
- mustache (rss) (1)
- note (rss) (1)
- objective-c (rss) (4)
- os (rss) (1)
- osx (rss) (2)
- others (rss) (1)
- paco (rss) (1)
- pdf (rss) (1)
- php (rss) (2)
- postfix (rss) (1)
- programming (rss) (12)
- project management (rss) (1)
- python (rss) (5)
- quicklinks (rss) (6)
- raspberry pi (rss) (2)
- redmine (rss) (1)
- reveal.js (rss) (1)
- ruby (rss) (10)
- sbcl (rss) (2)
- security (rss) (1)
- shell (rss) (2)
- smtp (rss) (1)
- solr (rss) (1)
- statistics (rss) (2)
- tips (rss) (10)
- tmux (rss) (3)
- toml (rss) (1)
- tools (rss) (1)
- twitter (rss) (1)
- ubuntu (rss) (1)
- unix (rss) (5)
- v8 (rss) (1)
- web (rss) (7)
- xcode (rss) (1)
- zeromq (rss) (2)
Archives
- August 2015 (1)
- April 2015 (2)
- March 2015 (1)
- December 2014 (1)
- October 2014 (1)
- July 2014 (3)
- March 2014 (6)
- February 2014 (4)
- November 2013 (3)
- October 2013 (4)
- September 2013 (2)
- July 2013 (2)
- June 2013 (2)
- May 2013 (1)
- April 2013 (6)
- March 2013 (3)
- February 2013 (8)
- January 2013 (5)
- December 2012 (1)
- November 2012 (6)
- October 2012 (7)
- August 2012 (1)
- July 2012 (9)
- June 2012 (1)
- April 2012 (1)
- December 2011 (2)
- November 2011 (2)