ねこめしにっき(2003年11月下旬)

2003年11月30日

ぼーいずらぶ同人ほもげー (2003/11/30 - 06:24)

知り合い筋の同人女子たち(というか全員プロあるいは半プロなのだけど)が集まって同人ホモゲーを作ったそうな。 18 禁。無料。…「ホモゲー」とか呼称すると微妙に一部関係者を不機嫌にさせそーだけど、まぁいいじゃないか夏咲センセー(誰)。門外漢なもんで。

2003年11月29日

BOMArchiveHelper.app のワナ、あるいはクロスプラットフォーム汎用のデータを用いようの巻 (2003/11/29 - 17:20)

本筋とちがうところにツッコミ。

OSX10.3 Finder の ZIP 圧縮ファイル作成機能は、ファイルがリソースフォーク付きの場合それを AppleDouble 方式で分離して圧縮するようでして、はたまた OSX10.3 インスト後 ZIP を開くデフォルトアプリに設定される/System/Library/CoreServices/BOMArchiveHelper.app も、解凍の際に AppleDouble 形式の復元処理を行う様で、それによりリソースフォークの保持を図る方式を取っているようです。

しかし、従来の Mac 用の ZIP やら LHA やらの圧縮解凍ツールは、リソースフォークの保持に MacBinary エンコードを経由する方式を取るのが伝統的だったわけで。したがって、 10.3 Finder で作成した ZIP ファイルを StuffIt Expander などで解凍すると、リソースフォーク部分は正常に統合・復元されません。たとえば safari-v100-xml.css.zip に同梱されてる「インターネットロケーションファイル」は、そのロケーション (URL) をリソースフォークに保持するもの(そしてデータフォークは 0 バイト)ですが、リソースフォークが消え飛んで中身が完全に 0 バイトの正体不明な謎ファイルとして出てきて、ついでに謎の __MACOSX というフォルダが現れます(ここにインターネットロケーションファイルのリソースフォーク部分が隠しファイルとして分離されて入っている)。…といった感じ。

まぁ AppleDouble 形式のほうが、 Mac 以外の環境に持ち出す場合、あるいは Mac 環境でも分離されたリソースフォーク部分が上手く統合されなかった場合、それが単にゴミフォルダ・ゴミファイルとして見えるだけで、正味データ部分(データフォーク部分)はそのまま利用可能であることが多いから、 MacBinary 方式より具合が良いことが多いのも確かだけど。

基本的には、 Mac 環境外でも使えるクロスプラットフォームなファイルをクロスプラットフォームなアーカイブ形式で圧縮して配布する際は、リソースフォークを完全消去するとか、リソースフォークに依存するファイルは Mac 環境外ではどのみち利用価値ゼロなのでアーカイブに含めない、というのがお約束でありまして。

つまるところ、 ZIP のようなクロスプラットフォームなアーカイブ形式で配布する場合は、「インターネットロケーションファイル」のような Mac 環境依存のファイル形式を用いず、 HTML にするとか、 URL をメモったプレーンテキストファイルにするとか、徹底的にクロスプラットフォームなデータを用いるのが望ましいです。ファイル形式の選択や運用に関しても、 Web 標準的な意識や知識は求められるものだと思う次第です。

…というのが言いたいだけのために、こんな長々とした文章を書いたオチ。と。こういったところは別にマカに限った事でもなくて、「 Web 標準派」の Win ユザとかもよくやらかしがちな話でありまして。 bmp とか wmv とかを一般不特定相手に公開して涼しい顔、とか。わらい。

J1 最終節 (2003/11/29 - 16:25)

いやー…。なんだこのものすごい展開わ。

毎年、優勝争いより残留争いのほうが盛り上がるとかゆー、わけのわからん状態からやっと脱したどころか、こんなおもろい最終節は初めてだったヨ。んで、これで二年連続でチャンピオンシップの無い年になった事もあるし丁度いいから、優勝の重みをスポイルするだけになって久しい J1 のガン、 2 ステージ制はいいかげん今年限りで終了でいいんぢゃネーノ?って意見はもう以前から既出なわけだが。

で、ぼくらのヌルヌルぐらんぱすは、いつものように、優勝争いや残留争いの死闘を経験することもなく、モチベーションの無い試合に順調に負けて、いつもどおりの中位の定位置に落ち着いたわけだが。ぴちぶーの得点王はオメデトウだけど、つまんねぇ、あーあ、つまんねぇ。

2003年11月28日

戦時下へ (2003/11/28 - 22:00)

きのうは東京都内某社の二次面接ですた。結果は約一週間後のお楽しみって事なので、とりあえず今は冬コミ新刊の製作に着手しなければならぬー。

で本日はカラー表紙原稿の(表向きの)入稿シメ日だったわけだが、お察しの通り順調に何もやっていないわけで(ぉぃ)。月曜の入稿を目指してこれから作業開始のモヨリ。本文のほうも、二週間後の某日がマジの入稿デッドラインだというのを早くも宣告され済みなわけで、いきなりせっぱ詰まってみたりして。日程的に「夏のウルマニ本とまるで同じ状況だよ既に。てことはページ数とか中身への手の掛け具合も自ずとアレと同じになるわけだー。わらひ。てゆかこの期に及んでいまだ何の本を出すか決めかねてるとゆー。どうすんべ?

てなわけで、以後約二週間ほど戦時体制ですのでよしなに。

2003年11月26日

謎無 (2003/11/26 - 18:52)

音引きは平仮名だったのか(謎無

[ bubble hour より ]

コマカイコトヲキニスルナカレ

数ページにわたっているシリーズ(謎)の某所、ナビリンクのアクセスキー表示が間違ってる云々どころか、 body 要素が無いとかいう猛烈なミスをやっていたのを、こっそり訂正。

たなおろし気分 (2003/11/26 - 10:15)

本日分の更新箇所。ここんとここの作業を延々とやっていた。久しくというか定常的にちっとも増えない絵系コンテンツが表面上ドカッと増えたカタチなワケだけど、別に新しく何かを描いたわけでもなく。めぼしい在庫の棚卸しというか何というか。

例の某所も 4 年の月日を越えて復活してみたり。復活にあたり 5 年くらい前あたりの古いコピー本などの絵を公開してみたり。ほんとはこゆのはまたぞろ再録本なんか出してですね、上手に活用したほうがイイに決まっているのだけど。というかもうね、来年の 5 月で同人活動 10 周年(うへぇ…)を迎えることもあるし、最初に作った本から最近の本まで全部の原稿とか、ゲストとか商業とかで描いた原稿とか、現存してる生涯原稿を網羅した究極の再録本とか作ってしまいたいぞー…って、自分史を出版することで生涯に幕引きして死んでくトシヨリの心境ですなー(笑)

そんだけかき集めてもも 500 ページに届くかビミョーだったりするのが情けないところなのだけど、そんなページ数の本を作る金なんかあるわけがないしというか幾らかかるのか見当がつかないし、古い絵満載のそんな本はとてもじゃないけど売れるとは思えないわけで。

2003年11月21日

ヴィネ祭 (2003/11/21 - 08:35)

メモ。

TrackBack 一覧ページの表示がトロい事が多かったのを改善してみた (2003/11/21 - 08:30)

title 要素、 h1 要素他に「『記事タイトル』への TrackBack」なる字面を入れるためには、その「記事タイトル」をどこかから持ってくる必要があるわけですよ。なんたって、記事本体のある場所 (www.remus.dti.ne.jp) とは完全に別の場所 (alimika.alib.jp) で動いてる、どうにもスタンドアローンすぎる CGI なわけで。

で、これまでは一覧ページの表示要求のあるたびに、 tb.cgi はこの DTI 鯖上にある HTML ファイルを毎度取りに来て、そこから該当する見出し (h3 要素部分) を抽出するという、なんともムダな事をやってた。そのせいで、表示に時間が掛かる事がどーにも多かった。

要は、 CGI から見たローカルな場所に、記事タイトルとその TrackBack ID の対応を記した索引データがあればいいんだけど。それをどうやって作るかが問題で、考えるのがめんどくさかったわけだけど(笑)

alib 鯖上にて cron を使い、一定間隔で DTI 鯖から HTML を取ってきてそこから作成するのが、自分は何もしないでいいから一番ラクチン。けど、新しく書いた記事分の反映がどうしても遅れる。わりかし大量のデータの取り寄せを含む処理だから、 5 分間隔とかでヤるわけにいかないというか、気が引ける(笑)

てなわけで結局、手元の OSX で作成してそれを alib 鯖にウプすることにした次第。タイミングは cron の一定間隔処理ではなくって、どうせだから日記の RSS 作成処理のついでにした。これは現在、手動による発動(発動されたらそのあとは XSLT 変換処理からウプまで全自動。 AppleScript アプレットなので DragThing の中のアイコンをクリックするだけ。)なんで、新しい日記項目を書いた後に処理発動を忘れなければ OK 。

記事タイトルとその TrackBack ID の対応を記した索引ファイルってことで、 RDF なり RSS なりそのへんを思い浮かべるのが昨今の自然な流れ(←?)。 そゆのを作成するのはカンタンなれど、そのデータを Perl で DOM 的にスマートに扱うには、なんぞモジュールを使って、その使い方も覚えなきゃいかんわけで面倒っちーから(笑)単純に Perl の連想配列のカタチにしたヨ。んで tb.cgi がそいつをフツーに取り込んでフツーに使うといった流れ。

この連想配列なファイル、実は XSLT で作っていたり。もうこういうのは Perl で HTML ソースの文字列を直でゴニョゴニョするより、要素をオブジェクトとして扱える XSLT でやったほうがラクだなぁーと思った。例によって Xalan-Java だから処理重いけど。どうせ同じく重たい RSS 生成 XSLT 処理のついでだしドウデモイイや、みたいな。

alib 鯖へのウプは scp か sftp オンリーってことで、そのへんを全自動処理に含ませるのにちと苦労したのは秘密。AppleScript からシェルスクリプトを呼んだ時の、 ssh-agent 方面の環境変数の受け渡しがナニでアレで。

まったくもって、そこらへんのブログツールを素直に使えよってかんじですが、こういうわけのわからんことを考えるのが、似非Blogの楽しいとこなので、なかなか似非Blogはやめられません。


Copyright © 1998-2006 ALIMIKA SATOMI/NYAN-NYAN-HANTEN.