コマンドプロンプトからUSB記憶装置を取り外そうとして失敗し続けている記録

WindowsUSBメモリなどを取り外す際にタスクトレイから行う「ハードウェアの安全な取り外し」の操作をコマンドプロンプトから実現しようとして、依然として失敗し続けている。

備忘録として、時系列順に記録を残しておこうと思う。何か進展があったら追記するつもりだ。

おま環の問題かもしれないので、もう少し具体的に背景を書く:

  1. Windows Storage Server 2016 Workgroupで運用しているNASがある。
  2. このNASには、NTFSでフォーマットしたUSB-HDDが取り付けてある。
  3. USB-HDDは、Windowsバックアップツールを利用した定例バックアップ先として使用している。
  4. USB-HDDは、定例バックアップの時だけ接続している。バックアップ終了後には、取り外し可能な状態にした上で、USB-HDD本体の電源をOFFにしている。
  5. 諸々の事情で、定例バックアップはWbadmin.exeを叩くパッチファイルをタスクスケジューラで実行することで実現している。
  6. 定例バックアップ完了後に、毎回NASにログオンして「ハードウェアの安全な取り外し」の操作をするのが面倒である。なので同様の操作をパッチファイルから実行することで自動化したい。
  7. NASは業務用として運用しているので、Windows Storage Server 2016の標準の機能か、もしくはMicrosoftが公開しているツールなどで実現したい。サードパーティのツールは導入したくない。

以上の理由より、コマンドプロンプト(正確にはパッチファイル)から標準/準標準の機能で「ハードウェアの安全な取り外し」と同等の処理を実現しようと試みているのだが、未だに成功する気配がない。

今のところ得られている結果は「そもそもアンマウントすらできない」か「運用上問題となる副作用が発生する」のどちらかである。

1. PowerShell : Shell.Application 経由で Eject

PowerShellを使ってCD-ROMドライをイジェクトするネタがあるのだが、同じ方法でUSBデバイスもいけるという情報を得たので、試してみた。

# 実行例 - F: を取り外す場合
(New-Object -ComObject Shell.Application).Namespace(17).ParseName('F:').InvokeVerb('Eject')

結果:アンマウントすらされない。

2. Windows Sysinternals : sync のオプション -e を使う

Windows Sysinternalsのsync.exe/sync64.exeのオプション-eでイジェクトできるとの情報を得たので、試してみた。

:: 実行例 - F: を取り外す場合
sync64.exe -nobanner -e F

結果:アンマウントすらされない。

3. 標準コマンド : mountvol を使う

標準コマンドmountvolのヘルプを見たところ、オプション/pにそれっぽい内容の記述があったので、試してみた。

:: 実行例 - F: を取り外す場合
mountvol F: /p

結果:ディスクがアンマウントされ、オフラインになる。その後にタスクトレイでの取り外し操作は必要だが、既にオフライン状態なので、直ぐに取り外し可能状態になる。

問題点:この後ディスクの電源をONにした時、ドライブレターの割り当てが外れている。例えば「mountvol F: /p」でFドライブのUSB-HDDを取り外した場合、そのUSB-HDDを再度接続した時、ドライブレターが全く割り当てられない(なのでエクスプローラーの「デバイスとドライブ」からはUSB-HDDにアクセスできない)。

4. PowerShell : Set-Disk でオフラインにする

PowerShellのSet-Diskでゴニョゴニョできる、という情報を得たので、試してみた。

# 実行例 - F: を取り外す場合
Get-Disk | ?{ $_.FriendlyName -eq 'I-O DATA HDJA-UT' } | Set-Disk -IsOffline:$true

結果:ディスクがアンマウントされ、オフラインになる。その後にタスクトレイでの取り外し操作は必要だが、既にオフライン状態なので、直ぐに取り外し可能状態になる。

問題点:この後ディスクの電源をONにした時、ディスクがオフラインのままになる。なのでSet-Diskを使うなどして明示的にオンライン状態にしないとUSB-HDDが使えない。

もうひとつのTDD

5年前の今頃は、なにやらTDD熱かったらしい。

TDDには全く何も取り組んでいない身なのだが、しかし傍から見聞きしているだけでも、TDDには参考となる面が色々とある。

ただし、それらの「参考となる面」は、TDDそのものというよりも、TDDによる副産物による部分が多い気がしてならない。

本エントリでは、TDDの部外者がTDDを見聞きした上で有用であると感じた面を挙げることで、TDDの別の側面にフォーカスを当ててみたいと思う。

プログラマ ミーツ ソフトウェア・テスト:第三次接近遭遇

よくあるTDDの例では、少なくとも(伝統的な開発工程でいう)詳細設計および実装のフェーズと単体テストが一体化している。この結果として、プログラマはどうあがいてもソフトウェア・テストの一部工程(下位Vモデルでのテスト工程の一部)と主体的に関わらざるをえなくなる。

よく考えれば、これは意外と革新的なことだったのではないかと思う。

ものすごく伝統的な職業プログラマの世界では、プログラマとテスターは分かれているし、双方の間に厳然たる身分差があることも多い。プログラマはコードを書き、書いたコードがビルド可能かつ何となく動いているっぽいことを漫然と観察するだけ。テスターはアプリ/システム全体を対象としたテストケースを書き、テストを行い、不具合報告書をあげるだけ。両者は異なる身分で、時にいがみ合っていることもある。

そのような世界においては、一般的な「テストの知識がある/テスト経験がある」プログラマとは、基本情報技術者試験あたりでテストの基礎知識をおざなりに学んだか、初めてプロジェクトに配属された際の役割がテスターだった程度で、コードを書くようになってからはテストとは無縁だったりする。「そんなこたぁテスターにやらしときゃええのよ」。

私自身はそこまで「ものすごく伝統的な職業プログラマの世界」な場面に直面したことはないが、組み込み開発の「プログラマが責任もって単体・結合テストを担当」なプロジェクトと、PCアプリの「単体・結合テストは行わず、アプリ全体のシステムテストで済ます」プロジェクトの双方を経験している。

その経験を元に、誤解を恐れずに書くなら、ソフトウェア・テストに通じているプログラマと通じていないプログラマとでは、明らかにコードの書き方が異なる。特に、単体テスト結合テストでコードの正当性を検証すること」を強く意識しているコードと、その辺りを全く意識していないコード(単体テスト結合テスト形式的にしか実施していないコードを含む)の間には、その書き方に差異が見られる。

ソフトウェア・テストと真剣に向き合っているプログラマは、よくある単純な不具合事例を回避するために防御的にコードを書くし、問題が起きやすい部分(例えば境界値がらみとか、マルチスレッドでの排他など)を実装する際には細心の注意を払う。境界値を気にかけるプログラマは、境界条件における極端なふるまいを考慮し、ときに設計・仕様の不備や矛盾に起因する問題を実装前に発見する。真剣に単体テストを行うプログラマは、段々とテスタビリティを考慮したコーディングをするようになる。「単体テストによる正当性の検証」を視野に入れたプログラマは、できるだけ結合度が低く単機能の関数/メソッドを志すようになる。

ソフトウェア・テストの知見の有無は、書いたコードの品質に良い影響を与える。つまり、ソフトウェア・テストを強く意識することで、テスト実施の有無にかかわらずバグの数が低減する可能性がある。

その意味において、プログラマがテストのことをあまり意識する必要がなかった伝統的な環境から、プログラマが低水準のテスト(単体テスト結合テスト)を通じてテストのことを強く意識する切欠を与える環境への移行は、ソフトウェアの品質を向上させるチャンスではないだろうか?

無論、従来の延長線上に「単体テストをちゃんと実施しましょう」という工程を付け加えるだけでも効果があるかもしれないが、TDDの場合、(「そんな単体テストで大丈夫か?」的問題は発生しうるものの)実装と単体テストが不可分であるので単体テストをサボりにくい、という利点があるといえる。テストをやらずに済むならなにも意識せずにスルーできるが、テストせざるをえないなら否応なく意識することになるのだ。

単体テストによるコスト削減の可能性

TDDの話は、結構な割合で関数/メソッド単位の単体テストとセットになっている。これはつまり、ソフトウェアの品質向上の面では、いわゆる「テスト担当者がシステムを触ってバグを出す」というレベルのテストとは別に、よりソースコードに密着した開発者テストを実施することも有効である、ということだ。

(実施するテストが増えている点に注意。TDDを行ったからといって、従来の「テスト担当者によるテスト」が不要になるわけではない)

このことは、実のところ今更書くようなことではない。遥か昔から「単体テスト結合テスト・統合テスト・システムテスト」と言われてきたではないか。手垢にまみれて古くさく役に立たない(と一般的に言われてそうな)基本情報技術者試験に出てくるほどに鉄板のネタだ。

組み込み開発のように高品質が求められる分野では、関数/メソッド単位での単体テストを実施することが多い。形式的に、ではなくキッチリと実施していれば、それなりにソフトウェアの品質向上に結びつく効果がある。でなければ、単体テストが行われなくなって久しいはずだ。

組み込み業界にいる私からすれば、関数/メソッド単位の単体テスト結合テストは「プログラマの嗜み」というか、「開発者テスト」として責任を持って行うべきものだ。本職のテスター*1には劣るが、ソフトウェア・テストの基礎知識を学んだ上で実務への適用方法を試行錯誤するのは当然のことだ。また、単体テスト結合テストで得られた知見から、コードの書き方を見直すこともある。

しかし一方で、その組み込み業界においても、例えばデバイスと連携するPCアプリやモバイルアプリの開発では、様々な事情で関数/メソッド単位での単体テスト結合テストを行わずにアプリ全体を対象としたテスト(システムテストなど)で済ましてしまうことがある。

そういうアプリは、一見して正しく動作しているようで、実は隠れた爆弾を抱えていたりすることがある。そんなアプリの改修に関わって痛い目に遭った経験がある私としては、最低でも関数/メソッド単位の単体テストぐらいはキッチリと行ってほしいのだが……。

ソフトウェア・テストは、ある意味においてコンクリートのひび割れや空洞の検査に似ている。アプリケーション全体をブラックボックスと見立てた普通のシステムテストは、コンクリートを目視で検査するようなものだ。優秀なテスターなら、打音調査や超音波による検査を行うだろう。

しかし、目視や打音調査などよりも確実な手法がある。コンクリートをスライスして断面を調べることだ。コンクリートの検査では不可能だが、ソフトウェア・テストでは可能だ。コードリーディングによるレビュー、静的解析ツールによるインスペクション、関数/メソッド単位の単体テスト結合テストが該当する。

関数/メソッド単位の単体テストが行われないのは、効果が分かりにくいからだ。あるアプリケーションを実装まで行い、その後の工程を「同じ環境、同じ人員」にて「単体テストあり」と「単体テストなし」に分けて行うことが可能ならば、両者の比較から有意な差の有無が判明するだろう(と私は妄想している)。しかしそれは不可能な話だ。

この不可能な話が可能だと仮定すると、関数/メソッド単位の単体テストによって得られると予想される効果は、ソフトウェアの品質向上と、結合テスト以降(リリース後の保守フェーズを含む)の「不具合発見→設計・実装への手戻り」によるコストの低減だろう。

前者の「品質向上」は、関数/メソッド単位の単体テストを実施すべき論拠としてはやや弱めだろう。顧客からみて「一定以上の品質が保たれている」と感じられるのなら、そこからどれだけ品質を向上しても、直接的な収益に結びつかないからだ。職業プログラマの場合、論理的には「費用対効果」より求められる品質が決まるはず*2なので、仮に「関数/メソッド単位の単体テストをせずとも要求された品質をクリアしている」という状態*3ならば、関数/メソッド単位の単体テストの実施は「過剰品質」となる。

しかし結合テスト以降の工程のコストが低減するのなら話が変わってくる。開発期間の短縮や、場合によっては売上原価の圧縮に結びつくからだ。

また、システムのライフサイクルという観点では、経験的に、関数/メソッド単位の単体テストを行っていないコードは「保守・改修」の工程に禍根を残すことも多い気がする。この直感が正しいならば、関数/メソッド単位の単体テストを実施することによりライフサイクル全体におけるコストが低減する可能性がある、とも考えられる。

こういった、計測の難しい部分のコストへの影響を明らかにすることが可能ならば、単体テストの重要性について開発者以外に説明する際に、有力な論拠となりうるだろう。計測が可能か否か、またどう計測するか、という問題はあるが……。

テスタビリティの高さ≒コードの品質の良さ

先に書いたが、「単体テスト結合テストでコードの正当性を検証すること」を強く意識しているコードと、その辺を全く意識していないコードには、大きな差異がある。

まずは簡単なところから。

良いコードを書こうとするプログラマは、よくある単純な不具合事例を回避するために、防御的にコードを書くようになる。例えば、C言語系統の言語で度々話題となる「{}を付けるか否か」問題だ。防御的にコーディングする人は必ず{}を付けるし、{}を省く人でも明らかに「この程度なら大丈夫だろう」というケース(例えば単文ifでの即時returnによる引数エラーチェックの羅列とか)にとどめることが多い。この派生で、結果を返さずに単に副作用だけを期待する*4関数形式マクロをC言語で実装する際、処理全体を「do {} while (0)」で囲むこともある。

防御的にコードを書こうとするプログラマは、同時に、よく問題が起きやすい部分を実装する際には細心の注意を払うようになる。例えば境界値絡みとか、マルチスレッドでの排他・競合などだ。

特に境界値・境界条件を気にかけるプログラマは、境界条件においてプログラムがどう振る舞うか、またどう振る舞うべきか、時間を割いて検討することが多い。境界条件では「極端な振る舞い」が発生する可能性がある。その辺を考察することで、時に設計・仕様の不備や矛盾に起因する問題を実装前に発見することがある。

基礎的な例だと、入力が「指定された範囲内の整数値」なら範囲の直前・直後及び範囲の最小値・最大値のケースを、文字列なら「0文字の文字列」のケースを、ファイルなら「0 byteのファイル」のケースを、「1行1レコード」のデータファイルなら「改行コードのみの行を含むファイル」や「ファイル末尾に改行コードが存在しないファイル」のケースを考慮するものだ。

まあ、ここまでは、テストによる正当性の検証にこだわっていなくても、良いコードを書こうとしている人なら取り組んでいることが多い。

では単体テストに取り組むようになると、ここからどう変化するのだろうか?

真剣に単体テストを行うプログラマは、段々とテスタビリティを考慮したコーディングを行うようになる。

例えば複雑な条件式は、組み合わせを網羅するテストケースを考えるのが難しいし、また実際にテストする際に「どこまでテストしたか?」という点が曖昧になってしまうものだ。だからテスタビリティを考慮して、複数の「単純な条件式」に分解するようになる。

C言語系の言語にある三項演算子は、便利な反面、複雑で怪しげなコードを書いてしまいやすいという欠点がある。そこで代替案として、短いけど入れ子になって複雑な三項演算子の塊を、あえて複数のif文を用いて「冗長だけど分かりやすい」コードに書き直すことを提案される場合がある。これなども、実のところテスタビリティの観点から同様な結論に達することがままあるものだ。「多少冗長だけど分かりやすい」コードの方がテストケースを考えやすいからだ。

また「単体テストによる正当性の検証」を視野に入れているプログラマは、可能な限り結合度が低く且つ単機能の関数/メソッドを書こうとする。理由は簡単で、その方が単体テストのテストケースを考えやすいからだ。

単純な話、数千行あるような最長不倒関数には大抵色々な機能が詰め込まれているものだ。そんな関数のテストケースを考えるのも、テストケースを充足できるに足るような自動テストスイートを用意するのも、ライフワークとなりかねない危険で複雑な作業だ。

そのような危険を避けようとすると、自然と各関数は単機能になるし、引数の数は少なめになるし、行数は短めになるし、グローバル変数インスタンス変数の参照を抑えた結合度の低い実装になる。結果として、実装された関数は、自然とモジュール強度(凝集度)が高く且つモジュール結合度が低いものが多くなる。

不思議なもので、テスタビリティを考慮してコードを書くことで、自ずとコードの品質が良い方向に変化するのである。

この辺りは、テスタビリティなんて考えず、形式的にしか単体テストを行わない開発者には無理な話だろう。

「テストケース作成」による「仕様」の網羅、明確化

(先に誤解されないように書いておく。TDDにおけるテストは、単体テストとは限らない。TDDで行うのは「そのプロジェクト/プロダクトに見合ったテスト」だ)

仕様策定時に見逃されていた矛盾や曖昧な点に、実装フェーズ終盤に差し掛かってから気づいたことはないだろうか? その矛盾や曖昧な点をどうするか確認した結果、今までの実装の少なくない部分を破棄してやり直す破目になったことはないだろうか?

TDDは「Test」の名を関する手法な訳だが、ソフトウェア・テストには少々興味深い特性がある。テストする前にバグやバグがありそうな場所を発見できることがあるのだ。

ホワイトボックス・テストやグレーボックス・テストを除けば――要はブラックボックス・テストなのだが――テストケースは仕様書を読み解いて作成することになる。ここで、テストの期待結果を明確に記述できないテストケースを発見したなら、おそらく関連する仕様に抜けや漏れがあるか、仕様が曖昧であるはずだ。その周辺にバグが潜んでいる可能性がある。もしくは、不具合とまでは言えないが、お客様に確認していただいたら「そこって、そうじゃないんだよねぇ」とちゃぶ台返しとなるかもしれない。

別の例として状態遷移が挙げられる。仕様書に状態遷移図が書かれていたり、もしくは状態遷移図は書かれていないものの状態遷移っぽい部分が存在することがある。これを状態遷移表に書き直してみると、抜けや漏れ(=怪しい部分)があったり、仕様書には書かれていない「状態」を付け加えないとうまく状態遷移表にならない部分(=漏れ or 考慮し忘れ)があったり、そもそも状態遷移表に書き直せない(=矛盾がある)ことがある。そういった部分には、バグが潜んでいる可能性が高い。

ソフトウェア・テストは、テストを実施すること以上に、実施するテストを考えることが重要だ。テストケースを考えている時点で、未だテストを実施していないのにもかかわらず、バグがありそうな場所が見えてくることがある。

テストケース作成で炙り出せるバグは、仕様策定や設計の段階に遡ることができる問題であることも多い。これはつまり、言い方を変えるならば、「テストケース作成」という形で仕様や設計をレビューしているに等しい。通常のレビューとは別に、再度レビューを行うことで、仕様がより明確となるし、仕様書を隅から隅までチェックすることによる網羅も期待できる。

TDDでは割と早い段階でテストケースを作成する。それは、TDDの入門書のように単体テストかもしれないし、単体テストよりも上位のテスト(システムテストなど)かもしれないが、いずれもテストケース作成を通じて仕様や設計を網羅し、不明点を明確にし、漏れや矛盾をさらけ出す効果を期待できる。

もちろん、何も考えずに形式的にテストケースを作成してしまっては、何の効果も得られないだろう。仕様を網羅するように、且つ怪しそうな部分をピンポイントで狙い撃つ。よいテストケースの作成は難しい。作れるようになるまで時間がかかるものだ。

それでも、実装の前に良質なテストケースを作成できれば、仕様に遡るような問題を減らした状態でコードを書き始めることができる。実装フェーズや、その後のテストフェーズにて、仕様策定や設計の段階への手戻りが発生する可能性は低くなるはずだ。

自動テストスイートによる「気軽にテスト再実施」

TDDの話では、「関数/メソッド単位の単体テスト」と同じくテスト自動化もセットになっていることが多い。

テスト自動化は、初期投資のコストがかかる。例えば、関数/メソッド単位の単体テストの自動化は比較的コストが低い部類に入るのだが、それでも手間がかかる。忙しいと、ついつい単体テストともども省略してしまいたくなるものだ。UIのテストなど、システム全体にまたがるテストを自動化しようものなら、仕組みを作る/導入するコストは更に大きくなる。

しかし、一度仕組みを用意してしまえば、「これほど心強い味方はいない」と言わしめるほど役に立つ。ソフトウェアのバグ修正、既存機能の改良、新機能の追加の度に、修正を加えた部分のテストケースのみ手を加えた上で全体をテストし直すことで、追加・変更点の再テストと同時に既存部分のリグレッションテストを済ますことができる。

ソフトウェアに変更を加えた後の再テストは意外と大変だ。直接変更を加えた部分だけでなく、変更が波及するだろう部分もテストし、デグレードがないことを確認しなくてはならない。

デグレードを見つけるには、変更の波及が想定される部分を推定してそこだけテストするか、ソフトウェア全体を再テストするしかない。変更の波及箇所を推定する方法、実施範囲を抑えることができる反面、見落としによるテスト漏れが発生する可能性がある。安全なのは「全体を再テスト」だが、テスト方法が全て手動ならばコストが高くつくし、プレッシャーの下で手作業でテストしているならば、どこかで手順間違いなどのミスが起こりうる。

だがテストが自動化されていれば、ソフトウェア全体を再テストする際のコストが低くなる。コストが低ければ、気軽にテストすることができる。見落とされがちだが、「気軽にテストできる」ということは重要だ。

一旦リリースしたソフトウェアが、保守・改良されつつ長く長く使われ続けるほどに、自動テストは開発期間の短縮と一定品質の保持という効果をもたらす。パッケージソフトや組み込み製品開発など、競合が多数存在する分野においては、初版リリース後のバグ修正や新機能追加におけるフットワークの軽さは武器の一つとなりうる。

その意味においては、自動化の対象を単体テストに絞る必要はない。いや、もちろん単体テストの自動化も効果があるのだが、より広範囲の、システム全体にまたがるテストの自動化も重要となる。それこそ、Webアプリ界隈ではブラウザの互換性の問題もあり、GUIに関わるテストを自動化しようという動きが見られる。こまめに修正・改良とデプロイを繰り返したいのなら、テストの自動化は必須なのだ。

この特徴ゆえに、テスト自動化は反復型開発と親和性が高く、反復型であるアジャイル開発(特に変化を前提とするXP)にて取り上げられるのだろう。

テスト自動化については、保守コストが発生する点も考慮する必要がある。継続的に開発を続けていくプロジェクトでは、刻一刻と変化していく環境に合わせて自動テスト・システムも改良されていくし、プロジェクトが継続している以上は自動テスト・システムも存在し続けても大丈夫だろう。しかし「Ver.1完成→チーム解散→数年後にVer.2開発開始」というスタイルの開発では、例えばVer.1の自動テスト・システムをVer.2開発で使用しようと試みた際、改めて自動テスト・システムが動作する環境を構築し直す作業が発生するし、OSや開発ツールや開発マシンの変化に一気に追随する大きな手間もかかるだろう。

仮に今後、テスト自動化を広めていきたいのならば、この種の保守コストとどう向き合うべきか考える必要があるだろう。場合によっては、「プロジェクト」のあり方を議論する必要があるかもしれない。

まとめ

TDD部外者から見て、TDDには次のような有用な要素が含まれている。

  1. 開発者にソフトウェア・テストを強く意識させる(他人事だと思わせない)。
  2. よりソースコードに近いレイヤーのテスト(単体テストなど)の有用性を明示している。
  3. テストを意識することで、テスタビリティの高い、ソースコードの読者からみて見通しのよいコードを書くようになる契機となりうる。
  4. テストケース作成にあたり、開発対象の仕様を明確化し、漏れのないよう網羅しようという意識が(プログラマにも)働く。
  5. 自動テストにより、リグレッションテストのコストを引き下げる。リリース後のバージョンアップ等における開発期間を短くする効果がある。

上記の各要素、特に2~4は、よく見てみれば昔から指摘されてきた。決して新しい内容ではない。

単体テストは重要だ。見通しのよいコードを書くことも重要だ。仕様を明瞭にして漏れのないようにすることだって重要だ。

どれも重要だが、しかし現実のソフトウェア開発において軽視させることが多かった。明確な仕様もなく(それどころか断片的な仕様さえ1週間も経たずにころころ中身が変わる)、ろくに単体テストもされていない、見通しの悪い○○なコードで構築されたソフトウェアの何と多いことか。

TDDが巧妙なのは、ソフトウェアの実装フェーズにテスト(最低でも単体テスト)を組み込み、一体化させることで、プログラマを否応なくソフトウェア・テストの世界に引きずり込もうとしている点だ。しかも、プログラマにソフトウェア・テストを意識させることで、暗黙のうちに前述の各要素を強制させている。

もちろん、テストの追加を「単なる重荷」ととらえて、形式的にしかTDDしない開発者もいるだろう。そのような開発者の手にかかれば、TDDだろうと何だろうと効果はゼロだ。しかしTDDを契機にソフトウェア・テストに積極的に取り組み、単体テストを行い、テスタビリティの観点からコードの書き方を改善し、仕様の網羅・明確化という観点で問題を洗い出すようになる開発者だっているだろう。

個人的には、上記の点がTDDのメリットであり、これらのメリットが得られるのならテスト・ファーストに徹する必要は無いと考えている。しかし、私を含めて悪い意味での「怠惰なプログラマ」がサボってしまいがちなこれらの要素を、TDDは暗黙のうちに強制しようと働く。その意味でTDDは巧妙で、実に有用な興味深い手法だと言えるだろう。

追記

筆者は研究開発系のプロジェクトに関わることが多く、「そもそも、このアルゴリズムで大丈夫なのか?」という不明点が多々ある段階で設計・コーディングを行うことが大半である。

だから、試作品を何度も揉んで、ある程度「この方法で実現できそう」という感触が得られてから、関数単位での単体テストや、ライブラリ単位での統合テストに着手している。それより前に単体テストに着手すると、試作品を揉んだ結果として「データ構造を含む大規模な見直し」が発生したので単体テストも大幅に書き直す――なんてことが発生して、時間的コストがかかり過ぎるからだ。

そういう事情があるので、厳密なTDDは行っていない。ただし、単数単位の単体テストは実施しているし、単体テストの自動化もしている。

おそらく私の環境においては「試作品を何度も揉んで、ある程度『この方法で実現できそう』という感触が得られ」るという粒度が、TDDにおける「自分のシステムにおいて期待する振る舞いを記述するテストを書き、それをパスさせる」という手法に適した大きさなのだろう。

単体テストは重要な要素ではあるものの、単体テストが「おま環」でのTDDに適した粒度であるとは限らない――という点を考慮した上で、TDDについて評価すべきだろうし、評価結果を提示する時は「おま環」について併記すべきだろう。でないと議論が噛み合わないはずだ。

*1:本職のテスト担当の人は、優秀な人は本当に優秀だ。このバグ、どうやって見つけたのだろう……。

*2:実際には、まあ、色々とありまして……。

*3:現実的に、このような状況がありうるか疑問ではある。

*4:Pascalのprocedureのような感じ。

argparseで引数を1つとるオプションをいい感じで扱えるようにしたい

ここ2~3年ほどPythonで小さなコマンドライン・ツールを書く機会が何度かあったのだが、argparseでコマンドライン引数を解析する時、引数を1つだけとるオプションの扱いに難儀している。

ArgumentParser.add_argument()のキーワード引数nargsに1を設定すればよいのだが、解析結果がリストで返される。なので「args.option_foo[0]」みたいにインデックスを指定する必要がある。APIの思想としては、この挙動は理解できる。しかしAPIを使う側としては面倒くさいのだ。

特に面倒なのが、省略可能なオプションでかつ省略時に適当な既定値が無いケースだ。この場合、「args.option_foo」は空のリストである可能性がある(必須オプションや、キーワード引数defaultを使って適当な既定値を用意できるケースでは、リストが空になることはない)。だから「if args.option_foo:」のように空リストか否か確認するコードと、「args.option_foo[0]」で値を参照するコードを書き分ける必要がある。そうしないと空リストなのに「args.option_foo[0]」で値を参照しようとして例外となる。このコンテキストの切り替えが面倒なのである。

大体「複数の値を取りうるオプション(結果として値が0個になる可能性もあるオプション)」の場合はイテレータを使うので、例外が発生することはまず無い。argparseのnargsの仕様からすれば、引数を1つだけとるオプションが例外的なのである。そして私が作るツールでは「引数を1つだけとるオプション」が大多数を占めているので、例外的状況ばかりなのである。

上記挙動を嫌って、少し前まではキーワード引数nargs'?'を指定していた。この方法なら解析結果を「args.option_foo」という書き方で参照できる。しかし難点として、コマンドライン引数にて「引数無しでオプションを指定する」ということが許容されてしまう。本来は「--option-foo value_foo」みたいに指定して欲しいところを「--option-foo」とだけ指定された時に、argparseが許容してしまうのである(というか、それが'?'の時の仕様通りの挙動なのだが)。

もっと、こう、何か「いい感じ」にできないか考えた結果、現時点ではキーワード引数nargsに1を設定した上で、ArgumentParser.parse_args()ArgumentParser.parse_known_args()の戻り値に以下の関数を適用して「いい感じ」に変換することで対応している。

def simplify_options(opts, as_list=[]):
    def ispublicattr(attr_name):
        return attr_name and attr_name[0] != '_'

    def simplify_attr(attr_name):
        attr = getattr(opts, attr_name)

        if not isinstance(attr, list):
            return attr
        elif attr_name in as_list:
            return attr
        elif not attr:
            return None
        elif len(attr) > 1:
            return attr
        else:
            return attr[0]

    attrs = {name: simplify_attr(name) for name in dir(opts) if ispublicattr(name)}
    Options = collections.namedtuple('Options', list(attrs.keys()))
    return Options(**attrs)

関数simplify_options()のキーワード引数as_listに登録された名前以外のリスト型のattributeを展開した上で、namedtuple化して返している。

使い方はこんな感じ。

parsed, rest = parser.parse_known_args()

# '--foo' と '--bar' の引数はリストのままにしておく。
opts = simplify_options(parsed, ['foo', 'bar'])

リストのままにしておきたいものを明示する必要がある点が面倒と言えば面倒だ。しかし実際のところ、コマンドライン・ツールにて「複数の引数を受け取るオプション」を設ける機会は意外と少ない。だから「毎度面倒な手順を踏む」という状況にはならない。

しかし、もっと良い方法は無いだろうか? 私が見落としているだけで、こんな関数を用意しなくとも、標準の機能でうまい具合に扱える気がするのだが……。

「C言語書けます」のボーダーラインはどこか?

C言語を覚えると組込み系の採用に有利」みたいな就職・転職向けの文言を見る度に、世の中そんなに甘くないと言いたくなるのです。

多分、組込み開発に限らず、例えばLinuxコンソールアプリ等でC言語を散々使った人も同意するのではないかと思うのだけど、Cプログラマは他のCプログラマに厳しいものだ。

そもそもC言語自体が鋭い刃物に例えられる代物で、メスにもドスにもなりうる取り扱い注意な言語だ*1。だからCプログラマは誰しも、C言語について一言居士となる。

そんな連中からすれば、C言語の基本文法を知っていて簡単な課題を解ける程度の人は、「C言語を書ける人」には含まれない。

では、どのレベルの人が「C言語を書ける人」に該当するのか?

よくよく考えてみると、次の点をクリアしているか否かがポイントではないかと思う。

  1. C言語の各種文法の「効率的で理にかなった使い方」をある程度知っている。
  2. C言語とメモリモデル(スレッドじゃなくてハードウェア・アーキテクチャの方)にまつわるアレコレをある程度把握している。

(1) は、例えば普通のCプログラマは関数の引数として構造体の実体ではなくポインタを指定するように実装するものだが、そういう癖を身に着けていているか、そうする理由を知っているか否か――ということだ。

この辺は、師匠となる本や人に揉まれながら、C言語でそこそこの大きさの実用的な何かを実装した経験によって成長する部分だろう。

ぶっちゃけた話、(1) はC言語に限らない話で、他のどの言語でも同じだ。C言語が特異なのは (2) の存在だ。

(2) は、要するに『Cプログラミング専門課程』で語られているような、C言語とメモリに関する諸々をどこまで体得しているか、という話だ。

プログラミング言語はハードウェアに対するある種の抽象化層として機能するのだけど、C言語はその抽象化層が薄くて且つ容易に穴をあけることができる*2。で、穴の中にはメモリ空間が広がっている*3

穴は簡単にあいて容易に拡がる代物であるし、Cプログラマもまたよせばいいのに好き好んで穴をあけようとする連中なもので、どうしても穴の中のメモリとの付き合い方を覚える必要がある。うまく付き合えないCプログラマは翌朝顔にひっかき傷をこさえて出勤する定めにある。

そもそも組込み以外のソフトウェアであっても、ファイルやTCP/IP経由で外部とバイナリデータ*4でやり取りすることになった時点で「メモリ上のデータの形式」というメモリとのお付き合いが始まるものだ。組込みでなくともC言語を使うなら、メモリとの上手な付き合い方は必須の教養だ。

抽象化層の薄さと穴のあけ易さはC言語(とC++)の特異な部分だ。他の言語はもう少し厚い抽象化層を持っているし、穴があきにくいように工夫されている。だから大抵の言語では抽象化層(言語機能とその有効な使い方)を学べば大半の物事が済むのだが、C言語では言語機能という抽象化層を学ぶだけでは不十分で、穴の中のメモリを知る必要がある。

で、メモリとの付き合い方を毎年指導するのがしんどいので他人任せにしたいのだが、唯一使える本だと思っている『Cプログラミング専門課程』は入手困難なのである。

Cプログラミング専門課程

Cプログラミング専門課程

代わりの本、何か無いかなあ?

*1:この例えの元ネタは藤原博文氏の『Cプログラミング診断室』である。

*2:だからこそドライバのような「ハードウェアを直接叩く」系のソフトを書くことができるのだが。

*3:組込みソフトウェアの場合は物理メモリだし、WindowsLinuxなどのアプリの場合は論理メモリだ。

*4:ここでは「テキスト形式ではないデータ」ぐらいの意味で使っている。

書籍購入:『基本からしっかり身につくAndroidアプリ開発入門 Android Studio 3対応』

軽く中身を見た。

差し詰め本書は「お仕事でAndroidアプリを書くことになったAndroidアプリ以外アプリ開発経験がある職業プログラマ」向けの入門書、といったところだろうか。

実際に、まえがきの「本書の特色」に以下の記載がある:

そのため、本書では特に業務でのアプリ開発でまず押さえておかなければならないポイントに絞って解説を行っています。

例えばListViewを使ったアプリの例題の場合、類書だと単純にArrayAdapter<String>で文字列を表示するだけで終わることが多いのだけど、本書ではlistitemのレイアウトファイルを作成して独自のアダプタを実装するところまで説明されている。で、仕事では独自のアダプタを実装する構成のアプリが多い訳だ。

本書について、ネット上では「構成が直感的じゃない」という指摘があって、まあ確かに一般的なAndroidアプリ開発の入門書と比較すれば直感的ではないのだけど、でも順を追って読み進めれば問題にならない。そして職業プログラマは、そういう読み進め方に慣れているものである :)

だから急にAndroidアプリ開発の仕事が降ってきた人が入門書を買う際には、本書を候補に入れることを推奨する。

書籍購入:『Kotlinイン・アクション』

軽く中身を見た。

Kotlinイン・アクション

Kotlinイン・アクション

本書は、Javaでの開発経験がある人が、『Kotlin入門までの助走読本』やKotlinの公式リファレンスなどで基本を学びつつ、同時に本書を参照して言語としてのKotlinの理解を深めていく――という使い方に向いているように思う。

裏を返せば、本書を読み進めるには「一定以上のJavaの経験」が必要であるし、「Kotlinの基礎文法」の学習に関しては他の文書を併用した方が良い。

それなりに人を選ぶ本だ。

「組込み開発=C言語」というイメージはどこまで正しいか?

組込み開発でのプログラミング言語というとC言語(時にアセンブラ)が真っ先に挙げられる気がするのだが、実務的にどこまで正しいのか書いておこうと思う。

結論から言うと、組込みプログラマの立場としては「組込みプログラミング=C言語」は概ね正しいのだが、組込み業界という視点では「C言語以外も結構使われている」ということになる。

そもそも組込み業界ではどんなソフトウェアが作られているだろうか?

組込み業界と言っても結構広いので、分野によって色々と異なるものだが、私が関わっているのは「ガジェット・スマート家電」寄りの分野だ。作っているソフトウェアは、組込みシステム向け三層アーキテクチャ(ドライバ・ミドルウェア・アプリケーション)が適用される程度には大きい*1。OSはRTOSの類が大半だ。

で、外注も含めて、書かれているソフトウェアは以下のような感じだ。

  1. ハードウェア制御用のドライバ・ファームウェア
  2. 移植性のあるミドルウェア
  3. 組込み機器のアプリケーション層
  4. 組込み機器をパソコンと接続するためのWindowsデバイスドライバ
  5. 組込み機器と連携するWindowsアプリケーション
  6. 組込み機器と連携するmacOSアプリケーション
  7. 組込み機器と連携するAndroidアプリケーション
  8. 組込み機器と連携するiOSアプリケーション
  9. 組込み機器と連携するWebサービスのクライアントサイド
  10. 組込み機器と連携するWebサービスのサーバサイド

今の時代、リッチな組込み機器はUSBやネットワーク経由で他のサービスと連携する仕組みを備えている。で、連携先の数だけ必要なソフトウェアが増えている。

接続方式が一般的なプロトコルで十分であるとか、外部デバイス側のフレームワークで提供されている通信機能で十分な性能が得られるような場合は、外部デバイスとのやり取りの部分を仕様で定義した上で、外部デバイス側のソフトウェアの開発を外注することが多い。

例えばWebサービスのサーバサイドが一般的なRESTアーキテクチャのWebアプリケーションで十分ならば、Webアプリケーション側のWeb APIのURLや通信データの形式を決めた上で、Webアプリ専業の会社に発注してしまうのだ。

しかしちょっと特殊なことを実現しようとなると、サーバサイド側の実装も自分たちでコントロールしたくなるので、サーバサイドの初期実装まで自分たちで行うことになる。その後はシステムの性格次第で、運用だけ外注してしまうか、運用と改修を共に外注してしまうことになる。

同じことはモバイルアプリにも言える。機器との接続方法がSDKに用意されている一般的な機能で済むとか、アプリのUIが凝ったものでなくて普通のUI部品で済むようなケースでは、外注することが多い。しかし特殊なことを実現したいとか、UIを凝りに凝ったものにしたいとか、そういう事情がある場合は内製することが多い。

先の一覧でいうなら、(1)〜(3) はほぼ確実に自分たちで開発するが、(4) 以降は開発するシステムの性格次第だ。アプリのデザインや性能要求が絡んでくる場合は、自前のPCアプリ・モバイルアプリ開発部隊を持っていたりする。

実際に組込み機器内で動作するコンポーネントである (1)〜(3) のうち、ステレオタイプの組込みプログラミングに最も違いのは (1) だ。ドライバやファームウェアを担当している人は名実ともに組込みプログラマである。彼らの主要言語はC言語だ。その意味で、組込みプログラマの感覚では「組込みプログラミング=C言語」となる。

一方で (2) のミドルウェア屋は「ハードウェアから分離させた移植性のあるモジュール」を開発するのが主要業務なので、C言語使いではあるものの、組込みプログラマという意識はやや薄い。(3) の組込み機器のアプリケーション層担当ともなると、ミドルウェアやドライバのAPIを叩くのでハードウェアを直接制御することは無いし、LCD表示用のGUIツールキットとの絡みでC++を使うことも多々ある。

なので、組込み業界の中のどの分野かに依存する話ではあるが、組込み系の企業に就職した人が使うプログラミング言語C言語であるとは限らないし、誰もがハードウェア制御用のコードを書ける訳でもない、という現状がある。

サービス展開も含めて規模の大きなシステムの場合、そのシステムを開発している企業の中で分業化が進んでいるものだ。だから、若手の頃から組込み機器のアプリケーション層の開発をバリバリやってきて、C++ベースのオブジェクト指向プログラミングの手練れになった反面、ハードウェアを直接叩くドライバの開発経験がない――みたいな人が実在したりする。

私自身、キャリアの大半が三層アーキテクチャミドルウェア層の開発なので、組込みらしいハードウェア制御プログラムを書いたのは2度だけだし、その開発も業界に入ってから10年以上経ってから偶然遭遇したものだった。

ということで、分野を選ぶ必要はあるものの、C言語が使えなくても組込み業界に入ることは可能だ。結構、機器と連携するモバイルアプリ開発とかで、AndroidiOS向けアプリ開発の手練れを探している企業は多いと思う。

ただし、少し特殊な要件がある場合は、例えばモバイルアプリ開発でもC言語C++の知識が求められることがある。リアルタイム性に関する性能要件がやや厳しいので核となる部分をCやC++で実装する必要があるとか、機器とのTCP通信にて独自のプロトコルを使う必要があってクライアント側としてCやC++で実装されたモジュールが提供されるので組み込む必要があるとか、そんな感じ。なのでAndroidならNDKの、iOSならC++11のスマートポインタとObjective-C++の知見*2が要求されることになる。

(だから先の一覧のmacOSiOSAndroidアプリの開発言語にC++を含めている)

結論として、繰り返しになるが、組込みプログラマ的には「組込みプログラミング=C言語」という構図は概ね正しい。しかし組込み業界という俯瞰した視点では「C言語以外も結構使われている」ということになる。業界にはデバイス制御プログラム以外のソフトウェアを書いている人もそれなりにいるのだ。

なお、上記の議論は「製品としてリリースするソフトウェア」を前提としている。開発用の小ツール――内製ツールやプログラマの個人用ツールとしては、テキスト処理に長けたスクリプト言語Excel制御用の言語(VBAPowerShell)がごく普通に採用されているものだ。ただ、全般的にC言語C++(better C)畑の人が多いので、Windows向けデスクトップアプリ開発では(CやC++のモジュールをそのまま組み込むことができる)MFCやQtが選択されやすい傾向にはあると思う。

*1:規模の小さなマイコン・プログラミングだと、せいぜい「ドライバ・アプリケーション」の二層のアーキテクチャであるし、モノによっては明確な分離がされていないごった煮の実装となっている場合もある。

*2:CやC++のモジュールをObjective-C++でラッピングして、インタフェースをObjective-Cとして見せることで、Swiftから楽に使えるようにするのである。その際に、Objective-CのARCと歩調を合わせてリソース解放するように、C++11のスマートポインタを使う。

ジュニアは採用できてもノービスは採用できない。ベテランになれないジュニアは淘汰される。

ジュニアを採用しない連中はシニアに値しない - portal shit!」を受けて。

そもそも「ジュニア」がどの程度の人を指し示すか、という話はあるが、アメリカの話っぽいので、おそらく最低でもCS(コンピュータ・サイエンス)の学士は持っているだろうし、修士や博士を持っている人もそれなりにいるだろう。

で、「履歴書の順序づけ - The Joel on Software Translation Project」からエスパーすると、アメリカのテック企業はCSの学位そのものの有無に拘っているのではなくて、「学位を持っている=CSの知識を持っている」という判断で履歴書をふるい分けた上で、次の採用ステップ(電話面接など)に進めているのだと思う。日本企業でも、例えば電子機器メーカーの技術者採用でその手の学部卒を採用しているものだが、それと似たようなものだろうか? ただアメリカのテック企業や日本の中小ベンチャー企業の場合、ソフトウェア開発の経験者(それこそ創業者)が履歴書のふるい分けに関わっているなら、CSの学位が無くても特筆すべき事項(例えば有名なOSSのメンテナである等)が書かれていたら履歴書のふるい分けで落とされることは無い――という印象がある(実際のところは不明だが)。

ついでに、「どうしてプログラマに・・・プログラムが書けないのか?原文)」を読んでアメリカのテック企業でのソフトウェア開発者採用事情を推測するに、流石にプログラムを書けない人はアウトだと思われる。

つまり「ジュニア=CSの知識を持っていて、簡単なコードぐらいは書ける人」である。

「ジュニアを採用しない連中はシニアに値しない」というのは、裏返せばソフトウェア開発者を採用する際の足切り基準がジュニアであると言っているに等しい。

そして、空気を読んで書かれていない行間を推測するなら、ジュニアに満たないノービス*1は考慮に値しない、ということである。CSの学位を持っていないとか、学位を持っていてもFizzBuzzのような簡単なコードすら書けない連中は、そもそもスタートラインに着くことを拒否される可能性が高い(ただし先に挙げた「例えば有名なOSSのメンテナである等」の天才枠は別で、CSの学位が無くても拒否されないだろう)。

あとアメリカの企業の場合、日本の企業よりも「職務不適格による解雇」は行われやすいだろう。

だから、スタートラインに着くことができたジュニアも、ベテランやシニアにステップアップできなければ、少なくとも職業プログラマとしては淘汰されるだろう(もちろん、キャリア開発を経て別分野に転身するなら話は別だが)。

一方で、元記事にもあるように、企業側はジュニアを受け入れてキャリア開発を支援する体制を整える方が健全だろう。誰だって最初は(職業プログラマとしては)素人なのだ。

ところで、ジャパニーズ・トラディショナルな新卒一括採用では、企業によっては「計算機科学とは無縁で、プログラムを書いたこともない人」みたいなノービスがソフトウェア開発者として採用されることがある。採用時に所属学部などでフィルタしている場合も、採用の過程でプログラムを書かせるところは稀だろう。

つまり日本企業では、ソフトウェア開発者としてジュニアに満たないノービスが採用される可能性が(少なくともアメリカのテック企業よりも)高い傾向にある。

あと、「職務不適格による解雇」に値する水準が高く設定されている(でないと解雇の妥当性をめぐる訴訟リスクを抱える)点もアメリカとは異なる。

そういった日本独自の事情を勘案した上で、幾分か割り引いて件の記事を読むべきだろう。

個人的には、ジュニアを採用した場合でも彼/彼女がベテランに育つか否か博打な面があるのに、ジュニアよりも教育コストがかかる――そして心が折れて数年で退職してしまい、それまでかけたコストが水泡に帰する可能性がある――ノービスを採用するのはリスクが大きいと思う。

せめて情報系の学部卒や専門卒に絞り込むとか、もしくは「職業訓練で半年座学と実習を受けながら基本情報技術者を取りました」ぐらいに気合いの入った退路の無い人でないと……教育するにしても、ジュニアとノービスではスタート位置が大きく異なるからなあ。

*1:フィギュアスケートの競技会の年齢別クラスはシニア、ジュニア、ノービスらしいので、ジュニアよりの下のクラスを意味する言葉としてノービスを使っている。

umask(1)は引き算しない、多分。

umask(1)の仕様を調べようとしたのである。

で、ググって見つかった「デフォルトのファイルアクセス権 (umask) (Solaris のシステム管理 (基本編))」を見てちょっと驚いた。

設定する umask の値は、与えたいアクセス権の値を 666 (ファイルの場合) または 777 (ディレクトリの場合) から引きます。引いた残りが umask に使用する値です。たとえば、ファイルのデフォルトモードを 644 (rw-r--r--) に変更したいとします。このとき 666 と 644 の差 022 が umask コマンドの引数として使用する値です。

デフォルトのファイルアクセス権 (umask) (Solaris のシステム管理 (基本編))

「引きます」とか「引いた残りが」とか、引き算をしているかのような記述である。

職業病だと思うのだが、私は `mask' という単語より、ビット演算によるマスクを行っているものと予想していた。しかしこの文書のニュアンスでは、ビットマスクではなく引き算を行っているように読み取れる。

日本語に翻訳する際に微妙な訳になったのかと思ったが、Oracleの別の文書である「umask(1) (man pages section 1: User Commands)」の記述はこんな感じだった。

The value of each specified digit is subtracted from the corresponding ``digit'' specified by the system for the creation of a file (see creat(2)). For example, umask 022 removes write permission for group and other (files normally created with mode 777 become mode 755; files created with mode 666 become mode 644).

umask(1) (man pages section 1: User Commands)

`subtracted' という単語より、私の拙い英語読解力では「引き算している」という感じに読み取れる。

しかし「Umask - ArchWiki」には別の記述がされていた。

新しく作成されたファイルに設定されるパーミッションビットの値は論理非含意 (付加) を使って計算され、論理記号で表現することができます:

R: (D & (~M))

つまり、最終的なパーミッション R はデフォルトのパーミッション D の論理積とファイル作成時のモードマスク M の論理否定が合わさった結果になります。

Umask - ArchWiki

ArchLinuxのドキュメントでは、引き算ではなくビットマスクしているものと読み取れる。

どちらが正しいのだろうか? 
POSIXのumask(1)の説明には以下のように「logical complement」とあるので、ビットマスクしているっぽいように思うのだが……。

For a symbolic_mode value, the new value of the file mode creation mask shall be the logical complement of the file permission bits portion of the file mode specified by the symbolic_mode string.

http://pubs.opengroup.org/onlinepubs/9699919799/utilities/umask.html

試しに、挙動を検証する方法を考えてみた。

まず、引き算とビットマスクとで計算結果が異なるケースは存在するだろうか? マスクが0022の場合、引き算とビットマスクとで計算結果は同じだ。しかしマスクが0033の場合、ファイルの場合の既定値(0666)との組み合わせにおいて、計算結果が異なるはずだ。

以下のプログラム(C言語)で確認したところ:

#include <stdio.h>
#include <stdlib.h>

static void pmask(const int bmsk, const int umsk)
{
    (void) printf("%04o -  %04o == %04o\n", bmsk, umsk, bmsk -  umsk);
    (void) printf("%04o & ~%04o == %04o\n", bmsk, umsk, bmsk & ~umsk);
}

int main(void)
{
    pmask(0777, 0022);
    pmask(0666, 0022);

    pmask(0777, 0033);
    pmask(0666, 0033);

    return EXIT_SUCCESS;
}

実行結果はこんな感じだった。

$ ./a.out
0777 -  0022 == 0755
0777 & ~0022 == 0755
0666 -  0022 == 0644
0666 & ~0022 == 0644
0777 -  0033 == 0744
0777 & ~0033 == 0744
0666 -  0033 == 0633
0666 & ~0033 == 0644
$ _

0666と0033の組み合わせのみ、引き算では0633が、ビットマスクでは0644が得られる。しかし他のパターンでは引き算とビットマスクとで得られる値は同じだ。

手元のUbuntu 16.04で試してみたところ、「umask 0033」の時に生成されたファイルのパーミッションは「rw-r--r--」、すなわち0644だった、同じLinuxであるArchLinuxと同様に、umask(1)では引き算ではなくビットマスクで計算されているようだ。

ということで、少なくともUbuntuとArchLinuxでは、umask(1)の結果は引き算ではなくビットマスクだ。

問題は、事の発端のドキュメントのOSであるSolarisを含む「Linux以外のUnix系OS」でのumask(1)の挙動を調べていないことと、元文書の「subtract」という単語が引き算以外のニュアンスを持っているか否かが分からないこと、以上の2点だ。実際、どうなのだろう?