全727件 / 37ページ中 4ページ目

20件表示

🔥
Zenn

Excel管理表が崩壊する本当の理由とは?「現在状況の上書き」をやめて「出来事の記録」に変える設計思想

「合理的な一手ずつが積み重なって崩壊する」という構造を、ストーリー形式で見事に可視化した良記事。エンジニアだけでなく、Excelで業務管理しているすべての人に読ませたい一本です。

「前任者が作ったやつで、自分もよくわからなくて……」—— この引継ぎ会話、あなたも一度は経験したことがあるのではないだろうか。 Zennに投稿されたTOKIUMプロダクトチームの記事が、なぜExcelの管理表は必ず崩壊するのか<strong>をストーリー形式で鮮やかに解説しており、思わず「あるある」と唸った。Excelの使い方の問題ではなく、</strong>データ設計思想の問題だという指摘は、エンジニアでなくともすべての管理業務担当者に刺さる話だ。 崩壊のストーリー:合理的な一手ずつが積み重なって地獄になる 記事では、シンプルな従業員名簿がどう崩壊していくかをストーリーで追っている。最初は4列の美しい表だった。 | 社員番号 | 氏名 | メールアドレス | 現在の状況 | |----------|------|----------------|------------| | 001 | 山田 太郎 | yamada@example.com | 在籍中 | ここから「入社日が知りたい」「退職理由も記録したい」「育休2回目の日程も」「更新者・更新日時も」と、ひとつひとつは完全に正当なリクエストが積み重なっていく。そのたびに列が追加され、ほとんどの行でほとんどの列が空白という状態が生まれる。非表示にしても問題は消えない。見えなくなるだけだ。 本質的な問題:「現在状況」を上書きすると過去が消える 記事が指摘する核心はここだ。 高橋さんが育休に入ったとき、「現在の状況」セルを <strong>「在籍中」→「育休中」に書き換えた</strong>。では、書き換える前の「在籍中」という情報はどこへ行ったか? 消えた。 > 現在の状況を管理しようとすると、過去が消えます。 > 何が起きたかを記録すると、現在の状況は自然と導き出せます。 これはデータベース設計でいうところの ミュータブルな状態管理 vs イベントソーシング の違いと本質的に同じ話だ。現在値を直接持つのか、イベント履歴から現在値を導出するのか。Excelという道具の話をしているように見えて、実はソフトウェア設計の根幹に触れている。 解決策:「1つの届出 = 1枚のシート」 記事が提案する解決策はシンプルで明快だ。 - 入社届シート → 入社が決まった事実を記録 - 入社辞退届シート → 辞退が決まった事実を記録 - 育休届シート → 育休の申請を記録 - 退職届シート → 退職の申請を記録 育休届シートには育休を取った人の行しか存在しない。2回育休を取れば2行ある。それだけで「育休は何回か」が自動的にわかる。退職していない人の行に退職日列を用意する必要がない。 この設計の美しさは、<strong>行があること自体が「申請した」という事実を意味する</strong>という点だ。NULLだらけの表は、設計が間違っているサインだと言い換えてもいい。 エンジニア視点での補足:これはRDBの正規化と同じ プログラマーなら気づくはずだが、この設計はまさにリレーショナルデータベースの正規化そのものだ。1つのテーブルに何でも詰め込むのではなく、エンティティごとにテーブルを分け、外部キーで関連付ける。育休届テーブルに employee_id 列を持たせれば、JOIN で社員情報と紐付けられる。 Excelでも同じ思想を適用できる。VLOOKUPやPOWER QUERYを使えば、届出シートを結合して「現在の状況」ビューを作れる。記録する表と、見るための表を分ける——記事タイトルの意味がここで腑に落ちる。 まとめ:「崩壊する表」は悪意や怠慢の産物ではない 記事の冒頭にある一文が印象的だった。 > これは、あなたがズボラだからでも、前任者が悪かったからでもありません。管理表のつくり方に、構造的な問題があります。 個々の変更は合理的で、やめようと言えるタイミングが存在しない。だからこそ、最初の設計思想が重要になる。「今の状態を記録するのか、起きた出来事を記録するのか」——この一点で、管理表の将来が決まる。 Excel運用に悩むすべての担当者、そして設計レビューをするエンジニアに、ぜひ元記事を読んでほしい。データベース設計の教科書より、よほど身近な言葉で本質を伝えている。

🟠
Hacker News

Claude Code のウェブ定期タスク機能とは?自律エージェントをクラウドでスケジュール実行する方法

「PCの電源を切っても Claude が仕事を続ける」というのは、エージェント AI の実用化として一つの大きな節目だと感じた。毎朝の PR レビューや週次の依存関係監査を自動化したいエンジニアに刺さる内容。

「PCを閉じていても Claude に毎朝プルリクをレビューさせたい」——そんな要望に正面から応えるのが、Claude Code に追加された<strong>ウェブ定期タスク(Web Scheduled Tasks)</strong>機能だ。2026年3月現在、Pro・Max・Team・Enterprise ユーザー全員が利用可能になっている。 なぜ重要か:自律エージェントが「常時稼働」になる これまでも Claude Code には /loop コマンドや Desktop 版のスケジュール機能があったが、どちらも「自分のマシンが起動していること」が前提だった。今回のクラウドタスクは Anthropic のインフラ上で動作するため、マシンの電源状態に依存しない。公式ドキュメントが挙げる具体的なユースケースはこうだ。 - 毎朝オープン中の PR をまとめてレビューする - 夜間に CI の失敗を解析してサマリーを作成する - PR マージ後にドキュメントを自動同期する - 毎週依存パッケージの脆弱性を監査する いずれも「定期的にやるべきだが手が回らない」タスクばかりで、エンジニアの生産性向上に直結する。 3種類のスケジューリング方式を比較する Claude Code には現在 3 つのスケジューリング手段がある。 | 方式 | 実行場所 | マシン電源 | ローカルファイルアクセス | 最小間隔 | |------|----------|-----------|-------------------------|----------| | クラウドタスク(今回) | Anthropic クラウド | 不要 | ✗(毎回クローン) | 1時間 | | Desktop タスク | 自マシン | 必要 | ✓ | 1分 | | /loop | 自マシン | 必要 | ✓ | 1分 | クラウドタスクはローカルファイルへのアクセスはできない代わりに、GitHub リポジトリをセッション開始時に自動クローンする。ローカルツールが不要な CI 監視・コードレビュー・ドキュメント生成といったタスクには最適だ。 タスクの作成方法:3つのエントリポイント 作成方法は以下の 3 通りが用意されている。 `bash CLIから作成(最も手軽) /schedule daily PR review at 9am タスク一覧を確認 /schedule list 既存タスクを更新(カスタムcron式も設定可) /schedule update 即時実行 /schedule run ` Web UI からは claude.ai/code/scheduled にアクセスして New scheduled task をクリックするだけ。設定項目は次の通り。 1. タスク名とプロンプト — プロンプトは「何をして、何が成功か」を自己完結的に記述する必要がある(自律実行のため) 2. リポジトリ — GitHub リポジトリを 1 つ以上追加。デフォルトでは claude/ プレフィックスのブランチにしかプッシュできない(保護ブランチへの誤プッシュ防止) 3. <strong>環境(Environment)</strong> — ネットワークアクセス範囲・環境変数(APIキーなど)・セットアップスクリプトを設定 4. スケジュール — Hourly / Daily / Weekdays / Weekly から選択。カスタム間隔は /schedule update で cron 式を直接指定 5. <strong>コネクタ(MCP)</strong> — Slack・Linear・Google Drive などの外部サービス連携。デフォルトで全コネクタが有効になるので、不要なものは外しておく 実用的なポイントと注意事項 - プロンプト設計が最重要:タスクは完全自律で動くため、曖昧な指示は予期せぬ動作を招く。「毎朝9時に main ブランチの未マージ PR を取得し、各 PR に対してコードスタイルと論理的バグのレビューコメントを付けること。変更は行わないこと。」のように具体的に書く - ブランチ保護:デフォルトでは claude/ プレフィックスブランチのみ書き込み可。本番ブランチへの直接プッシュを許可する場合は「Allow unrestricted branch pushes」を明示的に有効化する - 実行タイミング:スケジュール時刻から数分遅れる場合がある(ドキュメントに明記あり) - 各ランはセッションとして残る:実行結果は通常のセッションとして保存されるため、後からレビューや会話の継続が可能 まとめ:「寝ている間も働くエージェント」の現実 クラウドタスクの登場で、Claude Code は単なる「対話型 AI」からバックグラウンドで継続稼働するエージェントへと明確に進化した。特に OSS メンテナーやチームのリードエンジニアにとって、PR レビューや依存関係監査の自動化は即戦力になり得る。現時点では最小実行間隔が 1 時間と制約はあるが、用途を選べば十分に実用的だ。詳細な設定方法は公式ドキュメントで確認してほしい。

🟠
Hacker News

jqより速いJSONクエリツール「jsongrep」とは?DFAエンジンの仕組みと使い方

ripgrepがgrepを置き換えた流れと同じことがJSON検索でも起きるかもしれない。オートマトン理論という「教科書の中のもの」を実用ツールに落とし込んだ設計の話として、純粋に読み物としても面白い一本。

JSONを扱う開発者なら jq は必携ツールだ。しかし「もっと速いものはないか」と思ったことはないだろうか。jsongrep(jg)は、Rustで書かれたJSONクエリツールで、jq・jmespath・jsonpath-rustを速度面で上回ると主張している。作者はあのripgrepに触発されてこのツールを作ったと明言しており、その設計思想も似通っている。 なぜjsongreーpは速いのか?DFAという設計の核心 jqをはじめとする既存ツールは、JSONツリーを走査する際にパス式をインタープリタ方式で評価する。再帰探索(..)が絡むと、部分木を何度も訪問したり、ワークリストを管理したりと、処理コストが膨らむ。 jsongrepはこれを根本から変えた。クエリを正規言語として扱い、それを<strong>DFA(決定性有限オートマトン)</strong>にコンパイルする。DFAは入力シンボル1つにつき O(1) で状態遷移し、バックトラックも再帰スタックも不要。クエリのコストはコンパイル時に一度払えば、検索はほぼノーコストになる。 内部パイプラインは以下のステップで動く: 1. クエリをパース 2. JSONをツリーとして構築 3. GlushkovのアルゴリズムでNFAを構築 4. サブセット構成法でNFA→DFAへ変換 5. DFA遷移を使ったDFS(深さ優先探索)で検索 インストールと基本的な使い方 cargo経由で即インストールできる: `bash cargo install jsongrep ` バイナリ(jg)はクロスプラットフォーム対応で、LinuxもmacOSもWindowsも動く。 クエリ言語はシンプルかつ強力だ: `bash ネストフィールドの取得 cat sample.json | jg 'roommates[0].name' ワイルドカードで配列全要素 cat sample.json | jg 'favorite_drinks[]' 交差(どちらかにマッチ) cat sample.json | jg 'name | roommates' 任意の深さで name フィールドを再帰探索 cat sample.json | jg '( | []).name' 再帰探索のショートハンド(-F フラグ) cat sample.json | jg -F name ` ?(0または1回マッチ)や `(任意キー)、[](任意インデックス)、正規表現ライクな|(交差)まで揃っており、使い勝手はjqに近い。パイプ先がless/sortの場合はパス表示を自動省略するなど、CLI UXへの気配りも光る。 ベンチマーク結果と公平性 作者はドキュメントパース時間・クエリコンパイル時間・検索時間・エンドツーエンド時間の4軸でjq、jmespath、jsonpath-rust、jqlと比較している。等価なクエリを各ツールで書き直して公正な比較を心がけている点も評価できる。結果はjsongreーpが全カテゴリで優位に立つとのことだ(詳細は元記事のグラフを参照)。 まとめ:jqの代替として試す価値あり <strong>「JSON検索をもっと速くしたい」「大きなJSONを頻繁に解析する」</strong>という用途には刺さるツールだ。オートマトン理論を実用ツールに昇華させたというエンジニアリング的な面白さもある。クエリ言語の学習コストはjqと大差なく、cargo install jsongrep` 一発で試せるのも魅力。jqに慣れ親しんだ開発者ほど、違いが体感しやすいはずだ。

📝
Qiita

FigmaからPencil.devへの移行を検討してみた【準備編】— 移植手順と落とし穴まとめ

FigmaからPencil.devへの移行を実際に試したリアルな記録で、画像欠落やファイルサイズ問題など「やってみないとわからない」落とし穴が具体的に書かれている点が刺さった。Claude Code Opus 4.6を使った開発フローも参考になる。

「Figmaで作ったデザイン、そのままコードにできないか」と考えたことがあるフロントエンドエンジニアは多いはずだ。今回紹介するのは、Figmaで作成済みのプロトタイプを Pencil.dev へ移行する準備フェーズのリアルな記録だ。 なぜPencil.devへ移行するのか Pencil.dev はデザインからコードを直接生成できるツールで、特にReact/Remixベースのプロジェクトとの相性が注目されている。今回の移行プロジェクトのターゲットは書籍販売ECサイトのモックアップで、トップにカルーセル・新着アイテム一覧という典型的なECレイアウト構成だ。技術スタックは以下の通り: - フレームワーク: Remix - コンポーネントライブラリ: shadcn - スタイリング: TailwindCSS - AI支援: Claude Code Opus 4.6(トークン枯渇時はOpenAI Codexを併用) 移行方法の選択肢と注意点 FigmaからPencilへの移植方法は主に2つある: - コピー法: Figmaファイルをローカルにダウンロードしてからインポートする方法。ただし、画像が欠落してデザインが崩れることがある - 要素コピペ法: FigmaからシンプルにPencilへ要素を貼り付けるアプローチ コピー法で.figファイルを使う場合、ページ数が多かったりファイルサイズが大きいとPencil側でのインポートに失敗するケースがある点も要注意。 画像ファイルの扱い方 移行で最も嵌りやすいのが画像ファイルの管理だ。Figmaの素材はローカルに保存してPencil用のディレクトリに配置する必要がある。推奨ディレクトリ構成は以下の通り: ` docs/ └── pencil/ └── project.pen # Pencilのデザインファイル └── images/ # .penから参照する画像を配置 ├── hero.png └── icon.png ` あるいは画像パスを直接指定する方法もある。いずれにせよ、Figma内の画像参照はPencilに引き継がれないため、事前に素材の棚卸しと整理が必要になる。 まとめ・所感 「デザインツールの移行」は聞こえはシンプルだが、実際にはファイルサイズ・画像パス・コンポーネント設計と、地味な準備作業が積み重なる。この記事はPart.2(準備編)であり、実際のデザイン移植・コード生成は続編に続く。Figma→Pencil移行を検討しているチームには、この段階でのハマりポイントを知っておくだけでも価値がある内容だ。Claude Code + shadcn + Remixという最新スタックとの組み合わせも注目したい。

📝
Qiita

AWS Microcredential 全4種コンプリート — 「知っている」ではなく「解決できる」を証明する新資格の全貌

「知っている」より「解決できる」を証明したいAWSエンジニア必見の新資格。実務直結の内容かつAI検索OKという試験設計が時代を感じさせる。

<strong>「AWS認定試験は持っているけど、実務で使えるか自信がない」</strong> — そんなモヤモヤを抱えるエンジニアに刺さる資格が登場した。AWSが2026年にリリースした Microcredential シリーズがそれだ。早速、リリース当日に全4冠を達成したエンジニアの体験談をもとに、この新資格の全貌を解説する。 AWS Microcredentialとは? — 既存の認定試験との決定的な違い 従来のAWS認定試験が「知っている」を測るものだとすれば、Microcredentialは <strong>「実際に解決できる」を証明する</strong> 実技試験だ。マネジメントコンソール上に用意されたリアルなAWSアカウントで、実際に設定ミスや脆弱性を修正していく形式となっている。 現在(2026年3月時点)提供されている4種類はこちら: - AWS Serverless Demonstrated — サーバレスアーキテクチャの実証 - Agentic AI Demonstrated — エージェンティックAI分野の実証 - AWS Application Networking Demonstrated — アプリケーションネットワーキングの実証(新) - AWS Incident Response Demonstrated — インシデント対応の実証(新) 受験は AWS SkillBuilder のサブスクリプション で行い、好きな時間に受けられる。詳細は AWS公式ブログ および SkillBuilder で確認できる。 試験の進め方 — 90分・6〜7問・ペナルティなし 試験開始と同時に 専用AWSアカウント が払い出され、そこに実際にログインして課題を解決していく。 - 制限時間:90分 - 出題数:6〜7問(各問3〜4リソースの修正・追加が目安) - ペナルティ:なし(何度でも「検証」ボタンを押せる) - 検索・生成AI利用:OK(業務で使うツールは使っていい、という思想) ネット検索やChatGPT等の生成AIを使いながら解けるのは、「知識の暗記」ではなく「問題解決力」を見ているからだろう。ただし、CLIにエージェントを接続して自動解決させる・Amazon Qと壁打ちするといった 直接的な自動解決は権限上できない 点は要注意。あくまで自分で状況を整理しながら進める必要がある。 検証ボタンを押すと「〜ができていません。〜を確認してください」といった ヒントが得られる ため、詰まったときはとりあえず押してみるのも手だ。ただし全問はシナリオとして繋がっているため、破壊的な操作は後戻り不可 になるリスクもある。慎重さとスピードのバランスが問われる。 試験終了後は簡単なアンケートに答えると 即時に合否が判明 する。 なぜ今、Microcredentialに注目すべきか 個人的に、この資格が面白いと思う理由は「試験のためだけの勉強」が通用しにくい点にある。マネコンを実際に操作する以上、サービスの挙動や設定項目の意味を理解していないと手が動かない。AWSを実務で使っているエンジニアほど有利な試験設計 だ。 また、インシデント対応やアプリケーションネットワーキングといった 実務直結のテーマ が揃っているのも嬉しい。チームへのスキル証明や転職活動での差別化にも有効だろう。SAPやDASを持っていても「実際に手を動かせる証明」が欲しかった人には、ぜひ試してほしい資格だ。 まとめ AWS Microcredentialは、実務エンジニアのための「腕試し」として非常によく設計された資格だ。SkillBuilderのサブスク契約があればすぐ受験でき、合否も即時判明する。既存のAWS認定保有者が次のステップとして挑戦するのに最適 なタイミングといえる。まずはServerlessかAgentic AIあたりから試してみてはいかがだろうか。

🔥
Zenn

ターミナルでGitHub PRレビューが完結!Rust製TUIツール「gh-prism」の使い方と設計思想

AIエージェントにコードを書かせる機会が増えた今、「レビュー効率」はエンジニアの生産性を左右する重要テーマ。コミット単位の確認済みマークという地味だが実用的な独自機能が刺さる。

AIエージェントがコードを書く時代になって、自分の役割が「実装者」から「レビュアー」にシフトしてきた——そんな感覚を持つエンジニアは、もう少数派ではないはずだ。そのレビュー作業を、ブラウザを開かずターミナルだけで完結させようというのが、今回紹介する gh-prism だ。 gh-prismとは?既存ツールとの違い GitHub PRのdiffをTUI(テキストUI)で見るツールはすでに存在する。diffnav や difit<strong> などがその代表格だ。ただし、これらは「PR全体の最終差分」を見ることには長けていても、</strong>コミット単位でdiffを確認するのが苦手だった。 AIが生成したPRをレビューするとき、コミットの粒度を意識しながら「このコミットで何が変わったか」を確認したい場面は多い。gh-prismはその痒いところに手が届く設計になっている。 gh CLIの拡張機能として実装されているため、インストールは一行で済む。 `bash インストール gh extension install kawarimidoll/gh-prism PR番号を指定して起動 gh prism 123 別リポジトリのPRを見る場合 gh prism 123 --repo author/repo fzfと組み合わせてPR選択をインタラクティブに gh prism "$(gh pr list | fzf --preview 'gh pr view {1}' | awk '{print $1}')" ` 画面構成と主要機能 起動すると4ペイン構成のTUI画面が立ち上がる。 - <strong>左上(PR Description)</strong>: PRのタイトル・説明文。対応ターミナルなら画像も表示 - <strong>左中(Commits)</strong>: コミット一覧。選択するとファイルパネルと右側が連動更新 - <strong>左下(Files)</strong>: 選択中のコミットに含まれる変更ファイル一覧 - <strong>右側(詳細エリア)</strong>: PR Info / Conversation / Diffを文脈に応じて表示 キーバインドはVim系(j/kで移動、Tabでパネル切り替え、zでズーム)。?でヘルプが出るので迷ったらこれ。 特に面白いのが <strong>コミット単位の「確認済み」マーク機能</strong>(xキー)だ。例えば「APIインターフェース定義」と「自動生成コード」の2コミットがあるとき、前者さえしっかり確認できれば後者は流し読みでいい——そういう判断をコミット粒度で管理できる。GitHubのWebUIにはないgh-prism独自の機能だ。 diffの表示は dandavison/delta がインストールされていれば自動でシンタックスハイライトが効く。コメント入力・レビュー送信(Comment/Approve/Request Changes)・マージまでTUI上で完結する。 Rust + Ratatui + AIエージェントで作られた背景 作者はもともとAIエージェントに指示を出しながら自分で実装しようとしていたが、「実装速度がしょぼすぎて」途中からagentic codingに全面移行したと正直に書いている。最終的には「AIなしではできなかっただろうけど、AIだけでもできなかった」という感想が残った。 言語としてRustを選んだ理由も面白い。型があるほうがAIへの指示が正確になる、実行バイナリが軽くて速い、会社のRust勉強会で得た知識を使いたい——実に現実的な動機だ。TUIフレームワークは Ratatui を採用。文字の描画やカーソル位置のズレなどTUI特有の問題に随分と悩まされたようで、コメント入力部分は既存ライブラリがうまく合わず自前のテキストエディタコンポーネントを実装する羽目になっている。 バージョニングには CalVer を採用。「SemVerだといつまでも1.0.0に到達しなさそう」という判断は、アプリケーション開発者として非常に共感できる。 まとめ:AIレビュアー時代のターミナル環境整備に gh-prismはAIが書いたコードのレビューを「ターミナルから出ずに、コミット単位で、効率的に」やりたいというニーズに対する一つの回答だ。Rust製でバイナリが軽く、gh CLI拡張なので既存ワークフローへの組み込みも容易。fzfとの連携やdeltaによるハイライトなど、Unix的な道具の組み合わせで拡張できる設計も好感が持てる。 まだドキュメントや機能は発展途上とのことだが、基本的なレビューフローはすでに完結している。ターミナル派のエンジニアなら一度試してみる価値は十分にある。詳細は GitHubリポジトリ と元記事で確認してほしい。

🛠️
Simon Willison

datasette-files-s3 0.1a1 リリース — S3バケットをDatasetteのファイルストレージとして使う方法と時限IAM認証の仕組み

DatasetteのS3連携自体より「URLから定期的に時限IAM認証情報を取得する」設計思想が刺さった。クレデンシャルのローテーションをアプリ側で意識せずに済む仕組みは、小規模プロダクションでのクラウドセキュリティ実践として参考になる。

Datasette のエコシステムをじわじわ拡張し続けているSimon Willisonが、新たなプラグイン datasette-files-s3 のアルファ版(0.1a1)をリリースした。「DatasetteにS3を使ってファイルを保存・取得したい」と思ったことがある人には、ぜひ注目してほしい一本だ。 datasette-files-s3 とは何か? datasette-files-s3 は、datasette-files プラグインのバックエンドとして動作する拡張だ。datasette-files はDatasetteにファイルのアップロード・取得機能を追加するベースプラグインで、今回のリリースはそのストレージ先をAWS S3(またはS3互換ストレージ)に向けるためのアダプター層にあたる。 構成のイメージはこうだ: ` Datasette └─ datasette-files # ファイル管理の抽象レイヤー └─ datasette-files-s3 # S3バックエンド実装 ` これにより、ローカルディスクではなくS3バケットをDatasetteのファイルストアとして使えるようになる。 今回の注目機能:URL経由でS3設定を定期取得する仕組み 単なるS3連携ならありふれているが、今回のリリースで特に面白いのが <strong>「S3の認証設定をURLから定期的に取得する」</strong> メカニズムの追加だ。 これが何を意味するかというと: - <strong>時間制限付きIAM認証情報(Temporary Credentials)</strong> を安全に利用できる - IAMの権限を バケット内の特定プレフィックス に限定できる(最小権限の原則) - 認証情報をアプリ内にハードコードせず、外部URLから動的に差し替えられる 具体的なユースケースとして、AWS STS(Security Token Service)の AssumeRole で発行した短命トークンを何らかのAPIエンドポイントに返し、そのURLをプラグインに渡すという構成が考えられる。認証情報が期限切れになる前にプラグインが再取得してくれるため、長時間稼働のDatasetteプロセスでも安全にS3アクセスを継続できる。 `bash インストール(アルファ版なので --pre が必要) pip install datasette-files-s3==0.1a1 ` 設定例(datasette.yaml 想定): `yaml plugins: datasette-files-s3: bucket: my-bucket prefix: uploads/ credentials_url: https://internal.example.com/s3-creds credentials_refresh_interval: 300 # 5分ごとに再取得 ` なぜこれが重要か Datasetteはもともと「SQLiteをWeb公開する」ツールとして生まれたが、近年はファイル管理・認証・CMS的用途にまで守備範囲を広げている。S3バックエンド対応はその文脈で自然な進化だが、時限IAM認証の仕組みをプラグインレベルで抽象化している点は設計として見どころがある。 クラウドセキュリティのベストプラクティスである「短命なクレデンシャルを使え」「最小権限にしろ」を、アプリ側の実装コストなしに実現できるのは実用的だ。スタートアップや個人開発者がDatasetteをプロダクションに使うハードルがまた一段下がった印象がある。 まとめ まだ 0.1a1 のアルファ版であり、APIは変わる可能性がある。ただ、Simon Willisonのプラグインは概してドキュメントと実装のクオリティが高く、アルファでも試す価値がある。S3連携×Datasette構成を検討している人は、GitHubのリリースノートを今すぐチェックしておくことをおすすめしたい。

📚
gihyo.jp

AndroidがデスクトップOSを本気で狙う――2026年最新デザインガイドライン「Desktop Experience」を徹底解説

「AndroidがデスクトップOSになる」という話は長年言われ続けてきたが、今回のガイドラインはついて本気度が違う。Google I/O 2026前の布石という文脈を知ると、単なる仕様追加ではなく「戦略的な宣戦布告」として読める。Androidアプリ開発者は今すぐ原文を確認してほしい。

Androidアプリの「デスクトップ対応」がついに本気になった 「Androidアプリをデスクトップで使う」と聞いて、まだ「スマホアプリをPC画面に引き伸ばしただけ」というイメージを持っている人は多いと思う。が、2026年3月16日にGoogleが公開したAndroid Desktop Experienceデザインガイドラインを読むと、その認識はもう古い。Googleが描くのは、既存のモバイルアプリを「大きくする」話ではなく、Androidをデスクトップ生産性OSとして本気で再定義しようとする宣言だ。 何が変わったのか――「フリーフォームウィンドウ」が標準仕様に 今回の最大のポイントは、<strong>フリーフォームウィンドウ(Freeform windowing)</strong> がオプション対応から「Androidの標準体験」に格上げされたことだ。これまでマルチウィンドウはあくまでモバイルの延長線で、「対応してたらラッキー」程度の位置づけだった。新ガイドラインでは以下が明示的に要求される: - ウィンドウサイズ変更時にUIの構造そのものを組み替えるアダプティブ設計 - 単純な拡大縮小(ズームイン)ではなく、レイアウトの再構成 - ウィンドウの重なり・並びを前提としたUI設計 つまり「縦長スマホ前提のUIをそのまま横に広げる」は非準拠扱いになる。 Material Design 3(M3)がその骨格を支える このアダプティブ設計を実現するフレームワークが <strong>Material Design 3(M3)</strong> だ。具体的に何ができるようになるかを例で見てみよう。 <strong>List-Detailレイアウト(メール・SNSアプリの場合)</strong> ` ┌──────────────┬──────────────────────┐ │ リスト │ 詳細パネル │ │ ・メール1 │ 件名: ○○ │ │ ・メール2 │ 本文... │ │ ・メール3 │ 返信] [転送] │ └──────────────┴──────────────────────┘ ↑ 境界線をドラッグで調整可 詳細を別ウィンドウとして分離も可 ` ナビゲーションの自動変換 - モバイル: BottomNavigationBar(画面下のタブ) - デスクトップ: NavigationRail(左サイドバー)または NavigationDrawer(引き出し式) この変換はM3のコンポーネントを使うことで、画面サイズのブレークポイントに応じて自動的に切り替わる。Jetpack ComposeでM3を使っている場合、WindowSizeClass APIと組み合わせることで比較的スムーズに実装できる。 マウス・キーボード対応も義務化レベルに - ボタン・リスト項目へのHoverエフェクト(State Layer) - ツールチップの表示タイミング定義 - Ctrl+C/V に加え、アプリ独自機能のアクセラレータキー設計 これはもはや「おまけ」ではなく、デスクトップ品質を名乗るための最低条件だ。 Google I/O 2026への布石――Pixel 10とデスクトップ統合 「なぜ今このタイミングか」という問いへの答えは、2026年5月のGoogle I/Oにあると見て間違いない。Pixel 10シリーズを中心とした外部ディスプレイ統合機能(いわゆるAndroidのデスクトップモード大幅強化)の発表が噂されており、今回のガイドライン公開は開発者への「5月までに対応を済ませておけ」という事前通達だろう。Samsung DeXやPixel Tabletの外部ディスプレイ対応がすでに実績を積んでいる中、次はスマートフォンからのデスクトップ展開が本命シナリオとして現実味を帯びてきた。 Androidアプリ開発者が今すぐやるべきこと 正直、M3のアダプティブ実装は「一朝一夕」ではない。ただ、以下の順番で段階的に対応できる: 1. WindowSizeClass の導入 — androidx.window:window ライブラリで現在の画面クラス(Compact/Medium/Expanded)を取得 2. ナビゲーション切り替えの実装 — ExpandedサイズでNavigationRailに切り替えるだけでも大きな改善 3. List-Detailレイアウトの適用 — ListDetailPaneScaffold(Compose Material3)を活用 4. Hover・ツールチップの追加 — TooltipBox コンポーネントで比較的簡単に追加可能 Googleの公式ドキュメント「[Desktop experience | Android Developers」にサンプルも充実している。 まとめ――「デスクトップ対応」は特殊対応ではなくなった Androidのデザインガイドラインがここまで「デスクトップファースト」を打ち出してきた以上、アダプティブなUI実装はもはや一部の大手アプリの専売特許ではない。Google I/O 2026でPixel 10のデスクトップモードが正式発表されれば、対応していないアプリは「時代遅れ」のレッテルを貼られるリスクすらある。M3への移行とWindowSizeClass対応を、次のスプリントに入れておくことを強くおすすめしたい。

📚
gihyo.jp

Lucideアイコンライブラリ v1.0リリース — ブランドアイコン削除・Vue/Angular対応強化など主要変更点まとめ

ShadcnやAstroなど人気スタックと相性の良いLucideがv1に到達。ブランドアイコン削除という大きな意思決定の背景が興味深く、Webフロント開発者なら一度チェックしておきたいリリースです。

Lucide<strong>(ルシード)をご存知だろうか。Webアプリ開発で使われるアイコンライブラリの中でも、特に「シンプルで一貫性が高い」と評判の</strong>オープンソースSVGアイコンセットだ。週3,000万ダウンロード超という実績を誇るこのライブラリが、2026年3月23日についにメジャーバージョン1.0.1をリリース。現時点の最新はv1.7.0まで進んでいる。 LucideはFeather Iconsを源流に持つライブラリで、1,600以上のSVGアイコンを収録している。React・Vue・Angular・Svelte・SolidなどのフレームワークごとにNPMパッケージが提供されており、ツリーシェイキングを前提とした設計で「使うアイコンだけバンドルに含める」ことがしやすい点が特徴だ。Shadcn/uiなどのUIライブラリでも標準採用されており、多くのモダンWebプロジェクトに静かに組み込まれている。 v1の主要な破壊的変更は以下のとおり: - ブランドアイコンの削除 — 法的リスク(各社の商標・ブランドガイドライン違反)を回避するための判断。代替としてSimple Iconsが推奨されている - UMDビルドの廃止 — lucideパッケージを除き、ESM/CJSのみの提供に整理 - lucide-vue-next → @lucide/vue へのパッケージ名変更 - @lucide/angularの追加 — スタンドアロン実装として新設 - アクセシビリティ強化 — 全アイコンにaria-hidden="true"がデフォルト付与 `bash Vue利用者は移行が必要 npm uninstall lucide-vue-next npm install @lucide/vue Angular利用者は新パッケージへ npm install @lucide/angular ` React・Vue・Svelte・Solidではコンテキストプロバイダー対応も追加され、アイコンのデフォルトサイズや色をアプリ全体で一括制御できるようになった。加えてドキュメントが全面刷新され、各フレームワーク向けの詳細なセットアップガイドと、LLMがドキュメントを参照しやすくするllms.txtも追加されている点が面白い。 ブランドアイコン削除は既存プロジェクトにとって痛手になり得るが、「持続可能で法的に準拠したライブラリ」を維持するためのチームの誠実な判断だと感じる。v1という節目にしっかり技術的負債を清算したのは好感が持てる。既存ユーザーはパッケージ名変更やUMD廃止の影響を確認しつつ、移行を進めたい。ライセンスはISC(一部アイコンにはMIT)。

🔥
Zenn

RAGはコーディングエージェントの敵だった?DAGで「決定的なコンテキスト解決」を実現するMCPツール「Aegis」の仕組み

「RAGで検索するより、依存グラフでコンパイルする」という発想の転換が鮮やか。Claude CodeやCursorをチーム開発で使い始めたエンジニアには刺さる問題意識で、トークン削減効果も具体的。

<strong>Claude Code や Cursor を使っているエンジニアなら一度は経験する「ドキュメント地獄」</strong>。最初は AGENTS.md に数行書くだけで済んでいたのが、気づけば docs/architecture.md、docs/specifications/.md、docs/adr/.md と増殖し、AIが正しいドキュメントを探すためだけに大量のトークンを消費するようになる。「じゃあRAGで意味検索すれば解決だ!」——その直感は間違っていた、というのがこの記事の核心だ。 RAGが抱える「セマンティック・ギャップ」問題 「ブックマークの並べ替え機能を実装して」とエージェントに頼むと、RAGは「ブックマーク」「並べ替え」というキーワードでベクトル検索をかける。しかし本当に必要なのは <strong>「UseCaseの責務定義」「ドメインモデルの粒度ルール」「プロジェクト固有の例外設計」</strong> といった、実装キーワードとは意味的にかけ離れたアーキテクチャ規約だ。 このギャップをRAGは確率的にしか埋められない。AIの「勘」が冴えた日は適切なドキュメントを引っ張れるが、そうでない日は的外れな情報でトークンを浪費する。品質がAIの気分に左右される開発など、プロダクションには持ち込めない。 Aegis:「検索」ではなく「コンパイル」する ゆめみ社のエンジニア・fuwasegu氏が開発した Aegis は、RAGを一切使わない。代わりに <strong>DAG(有向非巡回グラフ)</strong> でドキュメント間の依存関係を定義し、対象ファイルパスから再帰的にコンテキストを収集する「コンパイラ」として動作する。 仕組みはシンプルだ: - app/UseCases/ を編集しようとする → usecase_guidelines.md が必要 - usecase_guidelines.md を読む → 前提として entity_guidelines.md と exception_guidelines.md も必要 - 依存グラフを辿って全て自動取得 技術的には SQLite + 再帰CTE でグラフを実装。RAGのような確率的ランキングは一切なく、同じファイルパスへの変更には常に同じガイドライン群が返る。この「決定性」こそが最大の強みだ。タイトルの「消費トークン1/12」はこの効率化から来ている。 セルフレビューで知識ベースが育つObservationサイクル Aegisの面白さは初期設定で終わらない点にある。エージェントがコードを書いた後、セルフレビューでガイドライン不足を発見 → aegis_observe で報告 → 分析パイプラインが改善Proposalを自動生成 → 人間が承認/却下 というフィードバックループが回り続ける。 `json aegis_observe({ "event_type": "compile_miss", "payload": { "target_files": ["src/api/handlers/user.ts"], "review_comment": "APIハンドラのバリデーション規約が不足していた" } }) ` 重要なのは <strong>Agent Surface(読み取り専用4ツール)とAdmin Surface(管理用16ツール)が完全分離</strong> されている点。エージェントは「不足を報告する」だけで、知識ベースの変更権限は持たない。成長は常に人間がコントロールする設計だ。 セットアップは3ステップ Cursor・Claude Code・Codex いずれでも npx @fuwasegu/aegis で起動できる。 `json { "mcpServers": { "aegis": { "command": "npx", "args": ["-y", "@fuwasegu/aegis", "--surface", "agent"] }, "aegis-admin": { "command": "npx", "args": ["-y", "@fuwasegu/aegis", "--surface", "admin"] } } } ` 1. MCP設定に上記2サーバーを追加 2. エージェントに「Aegisを初期化してアダプタールールをデプロイして」と依頼 3. Admin surfaceでアーキテクチャドキュメントをインポートし、ファイルパスとのエッジを設定 所感:「確率的知識検索」から「決定的依存解決」へのパラダイムシフト AI駆動開発の課題として「コンテキスト管理」は常に語られてきたが、RAGという「もっともらしいアプローチ」に疑問を投げかけたこの設計思想は本質的だと思う。コードのコンパイルが決定的であるように、エージェントへの知識供給も決定的であるべき——その原則は、規模が大きくなるほど効いてくる。 チームで Claude Code や Cursor を本格運用しているなら、ドキュメント管理の仕組みを見直すきっかけとして、Aegisのアーキテクチャは一読の価値がある。

🔥
Zenn

git worktree の管理が劇的にラクになる「Worktrunk」使い方完全ガイド【Claude Code連携も】

Claude Codeを複数並列で走らせたい開発者に刺さる記事。git worktreeの煩雑さを解消しつつClaude Code連携まで面倒を見てくれるWorktrunk、これは試さずにいられない。

git worktree、使いこなせてる? git worktree<strong> は「1つのリポジトリから複数の作業ディレクトリを同時展開できる」Gitの隠れた名機能だ。ブランチを切り替えるたびにstashして戻って……という手間なく、複数ブランチを並行して触れる。最近は </strong>Claude Code をはじめとするAIコーディングエージェントを複数並列で走らせるワークフローの文脈でも注目度が急上昇している。 ただ、素のgit worktreeコマンドはお世辞にも使いやすくはない。新しいworktreeを作るだけでもこれだ: `bash git worktree add -b feature/xxx ../feature-xxx && cd ../feature-xxx ` これを毎回打つのはつらい。そこで登場するのが Worktrunk(GitHub Stars 3.6k+)だ。 Worktrunkとは? git switchライクな操作感が最高 WorktrunkはRust製のgit worktree管理ツール。最大の特徴は「普段のgit操作と同じ感覚でworktreeを扱える」点にある。 `bash ブランチ作成 & worktree切り替え(git switch -c と同じ感覚) wt switch -c feature/xxx 既存ブランチのworktreeに移動 wt switch feature/xxx 前のworktreeに戻る wt switch - ` インストールはmacOSならbrewで一発: `bash brew install worktrunk && wt config shell install ` wt config shell install でシェル統合が有効になり、wt switch 実行時に自動でディレクトリ移動してくれる(これがないとcdが必要で地味につらい)。 wt switch をブランチ名なしで実行すると Interactive picker<strong> が起動し、@(現在のworktree)や^(デフォルトブランチ)などの状態記号を見ながらキーボードで絞り込んで選択できる。wt list --full にすれば </strong>CIステータスやLLMによるブランチサマリー まで一覧表示できる。 Hookが地味にすごい:worktree作成後の自動セットアップ 個人的に「これは手放せない」と思ったのが Hook機能 だ。プロジェクトの .config/wt.toml に書いておくだけで、worktree作成直後に任意のコマンドを自動実行できる。 `toml .config/wt.toml post-start] copy = "wt step copy-ignored" install = "pnpm install" ` wt step copy-ignored は .env などgitignore対象のファイルをメインworktreeからコピーするコマンド。新しいworktreeに切り替えたら .env がない……という事故が根絶される。さらに .worktreeinclude ファイルでコピー対象ファイルを限定することもできる。 worktreeの作成先パスもToml設定で柔軟に変更可能だ: `toml ~/.config/worktrunk/config.toml worktreesを専用ディレクトリにまとめる例 worktree-path = "~/worktrees/{{ repo }}/{{ branch | sanitize }}" ` Claude Code連携が本命:並列エージェントを1コマンドで起動 WorktrunkにはClaude Code専用プラグインが用意されている: `bash claude plugin marketplace add max-sixty/worktrunk claude plugin install worktrunk@worktrunk ` プラグインを入れると2つのことができる。1つは Configuration Skill<strong>(WortrunkのHookや設定をClaude Codeに相談しながら行える)、もう1つは </strong>Activity Tracking(wt list に🤖作業中・💬入力待ちのマーカーが表示される)。 そして最大の目玉が -x オプション。「worktree作成 → 切り替え → Claude Code起動」を1コマンドで実行できる: `bash wt switch -x claude -c feature-a -- 'Add user authentication' ` これで claude 'Add user authentication' がそのまま実行される。複数のAIエージェントを別々のworktreeで並列稼働させるワークフローが、恐ろしくスムーズになる。 まとめ:git worktreeを本気で使うならWorktrunk一択 git worktreeはパワフルだが、素のコマンドは扱いにくかった。WorktrunkはそのUXの問題をまるごと解決してくれる。特に: - AIエージェントの並列実行(Claude Codeとの統合) - Hook による環境自動セットアップ(.envコピーやnpm install) - git switch ライクな直感操作 この3点が刺さる人には即戦力ツールになるはずだ。他にも「LLMによるコミットメッセージ自動生成」「PR番号によるチェックアウト(wt switch pr:123)」「マージ済みworktreeの一括削除(wt step prune)」など機能は豊富。[公式ドキュメント もよく整備されているので、気になったら一読してほしい。

The Verge AI

MetaのAIメガネ新モデル「Scriber」「Blazer」がFCC通過——Ray-Ban Meta第3世代はもうすぐ登場か

「AIメガネ」というカテゴリがじわじわとメインストリームに近づいている手応えを感じる記事。現行のRay-Ban Metaユーザーや次世代ウェアラブルを追っているエンジニア・ガジェット好きに特に刺さるはず。

MetaのAIウェアラブル<strong>が、また大きく動き出した。2026年3月、MetaとEssilorLuxotticaが共同開発する次世代Ray-Ban AIスマートグラスの2モデルが米連邦通信委員会(FCC)の認証を通過したことが明らかになった。モデル名は </strong>「Scriber」 と <strong>「Blazer」</strong> 。FCC申請書類にこの2つのコードネームが登場したことで、近々の正式発表がほぼ確実視されている。 なぜ今、スマートグラスに注目すべきか 2023年末に登場したRay-Ban Meta スマートグラス(第2世代)は、AI搭載ウェアラブルとして異例のヒットを記録した。「メガネ型でも違和感なく使える」「Metaの音声AIがリアルタイムで情報をくれる」というユーザー体験が口コミで広がり、Metaのハードウェア事業における数少ない「当たり製品」として定着している。 現行モデルで実現済みの主な機能はこのとおりだ: - カメラ内蔵(フレーム右側)でのリアルタイム撮影・動画配信 - Meta AIとの音声対話(周囲の風景を認識して質問に答える「Look and Ask」機能) - オープンイヤー型スピーカーによる音楽・通話 - バッテリー持続:約4時間(ケース込みで最大36時間) FCC申請が示す「次」のヒント FCC申請は製品発売前の必須手続きであり、米国市場向けハードウェアは通常ローンチの数週間〜数カ月前に通過する。今回の「Scriber」「Blazer」という2モデル名はフレーム形状の違いを示唆している可能性が高い——現行モデルも「Wayfarer」「Round」「Headliner(ビーニー型)」など複数バリエーションが展開されているためだ。 具体的なスペックはまだ非公開だが、業界アナリストが予測する強化ポイントは以下のとおり: - カメラ解像度・画角の向上(現行は12MPだが映像品質に不満の声あり) - Llama 4ベースの強化されたMeta AIとの連携 - バッテリー持続時間の延長 - より自然なAR的視覚フィードバック(ディスプレイ搭載の可能性は低いが) 「AIメガネ」というカテゴリの本命になれるか 競合目線では、GoogleがAndroid XRでスマートグラスへの再参入を準備中であり、SnapのSpectaclesもAR機能を磨いている。しかし現時点で「ファッション性」「価格帯(約300ドル)」「使いやすさ」の三拍子が揃っているのはRay-Ban Metaシリーズだけだと言っていい。 MetaのザッカーバーグCEOは2025年以降、「AIメガネをスマートフォンの次のプラットフォームにする」と繰り返し発言している。ScirberとBlazerがその野望をどこまで前進させるか——正式発表が待ち遠しい。 まとめ:今すぐ押さえておきたいポイント - モデル名: Scriber / Blazer(FCC通過済み、正式発表は近い) - メーカー: Meta × EssilorLuxottica(Ray-Ban)の共同開発継続 - 現行モデルの後継として、AIおよびカメラ機能の強化が最有力 - 米国での発売後、日本展開は数カ月遅れるのが通例(現行モデルも同様) 元記事(The Verge / Janko Roettgers)ではFCC申請書類の詳細についても触れているので、スペックの細部が気になる方はあわせてチェックを。

🎨
Smashing Magazine

サイト内検索がGoogleに負け続ける理由と、ユーザーを取り戻すUX改善策

「自社サイトのコンテンツをGoogleで検索してしまう」という経験は誰にでもある。サイト内検索のfindability問題は地味だが影響範囲が大きく、検索エンジン導入を検討しているエンジニア・UX担当者に刺さる一本。

「自分のサイトなのに、なぜGoogleで検索される?」 サイト運営者なら一度は感じたことがあるはずだ。アクセス解析を見ると、ユーザーは自サイトのコンテンツを探すために、わざわざGoogleで site:example.com キーワード と検索している。せっかくサイト内に検索ボックスを設けているのに、誰も使わない。これが <strong>「サイト内検索のパラドックス」</strong> だ。Smashing Magazineの最新記事では、この逆説の構造を丁寧に解剖し、なぜ「Big Box(=Google)」が常に勝つのかを論じている。 なぜGoogleはサイト内検索より強いのか 問題はコンテンツの量や質ではない。<strong>「見つけやすさ(findability)」</strong> の差だ。Googleが圧倒的に優れている理由はいくつかある。 - 曖昧なクエリへの耐性: ユーザーは正確な言葉を知らなくても検索できる。サイト内検索は完全一致・部分一致に依存しがちで、言い回しが違うだけで0件になる - 検索意図の推論: Googleはクエリの背後にある意図(情報収集なのか、購入なのか)を文脈で推測する。多くのサイト内検索エンジンにはこの機能がない - スペルミスの補正・同義語展開: JavaScrpit と打っても JavaScript の結果が出る。自前の検索ではこのトレラント処理が抜け落ちていることが多い - 信頼感の蓄積: ユーザーは長年Googleの検索結果に慣れており、サイト内検索の結果品質を最初から低く見積もっている サイト内検索が「0件」になる構造的な問題 Smashing Magazineの記事が指摘する核心は、<strong>コンテンツが存在しても「見つけられない」状態になっている</strong>という点だ。技術的な原因としては以下が挙げられる。 - インデックスの更新遅延(公開後しばらく検索にヒットしない) - メタデータ・タグの不整備(同じ内容でも表記揺れで別物扱いになる) - UIの問題(検索ボックスが目立たない、モバイルで使いにくい) - フィルタリングの過剰(カテゴリ絞り込みが厳しすぎて結果が消える) 逆説的だが、<strong>コンテンツが増えるほど「見つからない」リスクも増大する</strong>。量より構造が重要なのだ。 ユーザーをGoogleから取り戻すための実践的アプローチ 記事では「Big Boxに勝つ」ための具体的な改善方向が示されている。すぐ実践できるポイントを整理しよう。 - 検索クエリログを分析する: ユーザーが何を検索して0件になっているかを把握する。そのギャップがコンテンツ戦略の優先度になる - 同義語辞書・シノニムを設定する: 「使い方」「チュートリアル」「入門」など意味が同じ言葉をまとめてヒットさせる - Algolia / Typesense / Meilisearch などの導入を検討する: フルマネージドの検索エンジンはスペル補正・ファジーマッチ・関連度ランキングを標準装備している - 検索ボックスのUXを見直す: プレースホルダーに「例: React Hooks 使い方」など具体例を入れるだけでクリック率が上がる - <strong>「検索してもらうより先に見つけてもらう」設計</strong>: 関連記事・タグナビ・カテゴリ階層を整備し、検索に頼らない動線を作る まとめ:findabilityこそが現代UXの競争軸 コンテンツの質を高めることに注力しながら、そのコンテンツが「見つけられるか」という問いを疎かにしているサイトは多い。Googleは莫大なデータと機械学習で「見つけやすさ」を磨き続けている。自サイトの検索がGoogleに劣るのは、努力不足ではなく構造的な設計の問題だ。元記事はSmashing Magazineらしく実装視点のヒントも豊富なので、UXデザイナーや開発者はぜひ原文にも目を通してほしい。

🟠
Hacker News

HandyMKV — MakeMKV+HandBrakeCLI を自動化するOSSツールの使い方

MakeMKV→HandBrakeの2段階エンコードを自動化するニッチだが実用的なOSS。自炊・ホームメディアサーバー運用者には「これが欲しかった」と思えるツールだ。

Blu-ray/DVDリッピングからエンコードまでの2段階作業を自動化したいと思ったことはないだろうか。MakeMKVでディスクをリップし、HandBrakeで圧縮・変換する、というワークフローはホームメディアサーバーを運用しているエンジニアなら定番中の定番だ。しかしこの2ステップ、毎回手動でやるのは正直しんどい。それを解決するOSSが HandyMKV(github.com/dmars8047/handymkv)だ。 なぜこのツールが必要なのか - MakeMKV はBlu-rayやDVDをロスレスのMKVファイルに変換する定番ツール。ただし出力サイズが巨大(1タイトル30〜50GB超も珍しくない) - HandBrakeCLI はそのMKVをH.265/H.264等に再エンコードしてサイズを1/5〜1/10に圧縮できる - 問題は「MakeMKVが終わったらHandBrakeを手動で起動して、ファイルを指定して…」という繰り返し作業が発生すること HandyMKVはこの2つのCLIツールを一本のパイプラインに束ねて、バッチ処理・自動化を実現する。 仕組みと主な機能 HandyMKVはGo製のCLIツールで、おおむね以下のフローで動作する: ` [ディスク/ISOファイル] ↓ MakeMKV(リップ・MKV出力) [一時MKVファイル] ↓ HandBrakeCLI(エンコード・圧縮) [最終出力ファイル(MP4/MKV)] ` 主な特徴: - MakeMKVのバッチリップ:複数タイトルをまとめて処理 - HandBrakeCLIのプリセット指定:既存のHandBrakeプリセット(.json)をそのまま利用可能 - 中間ファイルの自動クリーンアップ:リップ後の巨大MKVを自動削除してディスク節約 - 設定ファイルベース:繰り返し使いやすいYAML/JSON設定 実際の使い方イメージ インストールはGoのツールチェーンがあれば: `bash go install github.com/dmars8047/handymkv@latest ` 実行例(基本): `bash handymkv --input /dev/sr0 --output ~/media/movies --preset "H.265 MKV 1080p30" ` HandBrakeのプリセットファイルを直接渡すことで、解像度・コーデック・音声トラック選択まで細かくコントロールできる。Plex / Jellyfin / Emby などのホームメディアサーバーに取り込む前処理として非常に相性がいい。 まとめ・所感 Hacker Newsへの投稿はポイント数こそ控えめだが、ホームラボ勢・NAS運用者・自炊派エンジニアには刺さるツールだ。MakeMKVとHandBrakeは単体では超優秀、しかし連携が面倒というのはずっと解決されていなかった痒いところ。Go製なのでシングルバイナリで配布でき、DockerやNAS上でのcron実行にも向いている。ディスクコレクションのデジタルアーカイブを省力化したい人はぜひREADMEを覗いてみてほしい。

📚
gihyo.jp

Laravel Live Japan 2026 開催決定——日本初の公式カンファレンス、チケット早割は3/31まで

Taylor Otwell本人が来日する日本初の公式Laravelカンファレンス、これは見逃せない。3/31までの早割を使えばチーム参加もコスパ十分で、学生は無料というのも太っ腹。

Laravel Live Japan 2026 が、<strong>2026年5月26日(火)〜27日(水)</strong> に東京・立川ステージガーデンで開催される。日本初となるLaravelの公式コミュニティカンファレンスとあって、国内外のPHP・Laravelエンジニアから注目を集めている。 なぜ今、Laravelの公式カンファレンスが日本で? Laravelは長らく「海外発のフレームワーク」という印象が強く、大型の公式イベントはLaraCon(米国・EU)が中心だった。今回の日本開催は、アジア圏でのLaravelコミュニティの成熟を示すマイルストーンといえる。PHPフレームワークの選択肢が多様化するなかで、Laravelのエコシステムと日本のエンジニアをつなぐ場として期待は大きい。 豪華スピーカー陣と幅広いトピック 注目のセッションラインナップは以下の通り: - Taylor Otwell(Laravel作者)による基調講演 - Roman Pronskiy(PHP Foundation設立者)によるセッション - フロントエンド・ネイティブアプリ・AI・データベース・テスト・キャリアなど幅広いテーマ - 全セッションにリアルタイム翻訳あり(英語セッションも安心) Laravel単体ではなく、周辺エコシステム全体をカバーするため、「普段Laravelを使っていない人でも楽しめる」と主催側も明言している。PHPエンジニアであれば参加価値は十分にある。 チケット情報・早割は3月31日まで | 種別 | 料金(手数料別) | |------|----------------| | 早割(〜3/31) | 8,000円 | | 早割 / 3名以上 | 7,500円 | | 早割 / 10名以上 | 7,000円 | | 通常(4/1〜) | 9,500円 | | 学生 | 無料(先着順) | | After Party | 3,000円 | チケット購入は laravel.zaiko.io から。学生は別途確認フォームの提出が必要。早割期限は2026年3月31日なので、参加を検討しているなら今すぐ動くべきだ。 まとめ・所感 Taylor Otwell本人が来日して基調講演を行うという点だけでも、日本のPHP/Laravelコミュニティにとって歴史的なイベントになりそうだ。2日間・After Party込みの構成で、登壇者との交流機会も充実している。チームで参加すれば早割割引も効くので、会社の技術研修として申請しやすいのも嬉しいポイント。詳細スケジュールと登壇者情報は公式サイト laravellive.jp で確認できる。

📚
gihyo.jp

Ubuntu 26.04 LTS(resolute)ベータ進捗と「CrackArmor」脆弱性の対応方法【2026年3月最新】

「Rustで書いたから安全」ではなく「不要な機能を実装しないから攻撃面が減った」というsudo-rsの話が今回の白眉。セキュリティ設計の本質を突いた良い事例として、Ubuntuを使っているサーバー管理者に届けたい記事です。

Ubuntu 26.04 LTS(コードネーム resolute<strong>)のベータリリースが近づいてきた。今週は開発進捗のアップデートが複数あったほか、</strong>AppArmorに発見された「CrackArmor」と呼ばれる権限昇格脆弱性が公表され、現行ユーザーには早急なアップデートが求められている。この記事では開発状況と脆弱性の詳細を整理する。 Ubuntu 26.04 開発進捗まとめ 現時点で確定・進行中の主な変更点は以下の通り。 - カーネル: 6.20(7.0になる見込み)の準備が進行中。変更点サマリーが公開された - 年齢確認機能の追加: OS側がアプリケーションに年齢情報を伝える仕組みが投入された。EU圏などの法規制対応が目的 - ISOイメージQA: 旧来の ISO Tracker から新設の tests.ubuntu.com ベースへ移行 - リリースノートの移行: Discourseでの管理から documentation.ubuntu.com(Read the Docs / Sphinx / GitHub)ベースへ。従来のDiscourse管理は運用上の限界があったとのことで、これは合理的な判断 - Dracutのデフォルト移行: 今回もデフォルト切り替えのみの対応になる模様 地味ながら、UIコンポーネント(アイコン・スプラッシュ)の改修や細かなアニメーション追加も裏側で進んでいる。 「CrackArmor」脆弱性とは何か 今回の一番のトピックは、<strong>AppArmorに関連した権限昇格の脆弱性「CrackArmor」</strong>だ。 AppArmorはUbuntuに搭載されている<strong>強制アクセス制御(MAC: Mandatory Access Control)</strong>機構で、プロセスごとにファイル・ネットワーク等へのアクセスを制限できる。今回発見されたのは、AppArmorだけでなく su や sudo などのプログラムを組み合わせることで、ローカルユーザーがroot権限を奪取できるという攻撃経路だ。 攻撃の前提条件と特徴を整理すると: - ローカルユーザー権限が必要(ネットワーク越しの直接攻撃ではない) - AppArmor単体のバグではなく、複数コンポーネントの組み合わせによる問題 - ネットワーク経由の攻撃には「まず一般ユーザー権限の奪取」というフェーズが必要 対処法はシンプルで、システムをアップデートするだけ。修正パッチはすでに提供されている。 `bash sudo apt update && sudo apt upgrade ` sudo-rsが影響を受けない理由が興味深い Ubuntu 25.10(Questing Quokka)以降でデフォルトになった<strong>sudoのRust実装「sudo-rs」</strong>はこの脆弱性の影響を受けない。理由が面白くて、「Rustで書いたから安全」という話ではなく、<strong>「メール通知機能を実装していない」という設計上の判断</strong>によるものだ。 攻撃面になりうるが利用者が少ない機能を意図的に未実装にしておく、というアプローチで結果的に攻撃経路が存在しない状態になっている。リファクタリング時に「本当に必要な機能は何か」を見直したことのメリットが現れた形だ。sudo-rsを使っている25.10以降のユーザーはこの点では安心していい。 その他の注目ニュース - Canonical、Rust Foundationのゴールドメンバーに: sudo-rsのRust採用にとどまらず、Rustエコシステムへの本格コミットが見える - RISC-V SnapをQEMUでテスト: 実機なしでRISC-V向けSnapパッケージを検証する手順が整備された - Snykがchiseled Ubuntuコンテナのスキャンに対応: セキュリティスキャンの死角が一つ減った - Advantech MIC-770 V3W: Ubuntu 24.04 LTS認定取得 まとめ Ubuntu 26.04 LTSは2026年4月リリースに向けて着実に進行中だ。現在のUbuntuユーザーはCrackArmor対応のためすぐにシステムアップデートを実行してほしい。sudo-rsへの移行が進む25.10以降ではこの問題は回避されているが、24.04 LTSユーザーは特に注意が必要だ。開発サイドでは、リリースノートのSphinx/GitHub移行など地道なインフラ改善も進んでおり、LTSとしての品質担保に力を入れている印象を受ける。

🎨
Smashing Magazine

Figma変数でフォントスケーリングのアクセシビリティテストを自動化する方法【2026年版】

「アクセシビリティはデザインフローに溶け込ませるべき」という考え方を、Figma Variablesという具体的なツールで実現した実践的な内容。デザインシステムを運用しているチームにとって、すぐ導入できるワークフロー改善のヒントが詰まっています。

「アクセシビリティ対応は面倒」と感じているデザイナーに読んでほしい記事だ。<strong>Figma Variables(変数機能)</strong> を使えば、フォントサイズ拡大時のレイアウト崩れチェックを、デザインフローの一部として自然に組み込める。WCAGが求めるテキスト200%拡大への対応も、もはや後付け作業ではなくなる。 なぜフォントスケーリングのテストが重要なのか WCAG 2.1の達成基準1.4.4(リサイズするテキスト)では、コンテンツや機能を失わずにテキストを最大200%まで拡大できることが求められている。しかし多くのデザインチームでは、この検証を開発フェーズに先送りにしてしまう。結果として、実装後に大量の修正が発生する。 - フォント拡大時のテキスト折り返し・はみ出し - ボタン・ラベルの文字切れ - 狭いコンテナへの詰め込みによる視認性低下 - モバイルレイアウトの崩壊 これらはすべて、デザイン段階で発見・修正できる問題だ。 Figma Variablesで何ができるのか Figmaの変数(Variables)機能を使うと、フォントサイズのトークンをモードとして切り替える仕組みが作れる。具体的には以下のような構成が可能だ。 ` 変数コレクション: Typography Scale ├── Mode: Default(100%) │ ├── font/body: 16px │ ├── font/heading: 24px │ └── font/label: 14px └── Mode: Large(200%) ├── font/body: 32px ├── font/heading: 48px └── font/label: 28px ` テキストスタイルにこの変数を紐付けておけば、モードを切り替えるだけでフレーム全体のフォントサイズが一括変更される。スクリーンリーダーユーザーや弱視ユーザーが実際に体験する拡大状態を、ボタンひとつで再現できる。 実践的なワークフロー ① 変数コレクションの作成 FigmaのLocal Variablesパネルで新規コレクション「Typography」を作成。NumberタイプでDefault/Largeの2モードを定義する。 ② テキストスタイルへの紐付け Body、Heading、Labelなど各スタイルのFont Sizeに変数をバインド。右クリック → 「Apply variable」から設定できる。 ③ デザインフレームへの適用 各コンポーネントのテキストにスタイルを適用した状態で、フレームのMode切り替えを実施。レイアウト崩れを目視確認する。 ④ Auto Layoutとの組み合わせ Auto Layoutを使ったコンポーネントであれば、フォント拡大に合わせてコンテナが自動伸縮する。固定幅のフレームが多い場合はこの機会に見直しを。 記事著者のRuben Ferreira Duarteは「アクセシビリティは大きな変革ではなく、チームの日常ルーティンに自然に溶け込む小さな工夫の積み重ねが重要」と語る。変数モードの切り替えをデザインレビューの標準チェック項目に加えるだけで、アクセシビリティは「オプション」ではなく「当然の工程」になる。 まとめ:デザインシステムに組み込んで継続的に検証する Figma Variablesによるフォントスケーリングテストは、一度仕込んでしまえばランニングコストがほぼゼロだ。デザインシステムのトークン定義と一体化させれば、新しいコンポーネントを追加するたびに自動的にアクセシビリティ検証が行われる状態を作れる。 - Figma Variables: 2023年に正式リリース、現在はProfessional以上のプランで利用可能 - WCAGバージョン: WCAG 2.1 / 2.2 どちらも基準1.4.4が適用される - 元記事(英語)はSmashing Magazineで全文公開中 アクセシビリティ対応を「後で考えること」から「最初から組み込まれていること」へ変えたいチームに、ぜひ一読を勧めたい。

📝
Qiita

採用担当者に刺さるGitHubポートフォリオの作り方【2026年版】すぐ使えるテンプレート付き

転職・就職活動でGitHubをポートフォリオとして使いたいエンジニア必読の一記事。単なるREADMEの書き方にとどまらず、CI/CD・ブランチ戦略・ADRまでカバーした実践的な内容で、今すぐ使えるテンプレートが豊富なのが嬉しい。

転職活動や就職活動でGitHubを見られるエンジニアにとって、「リポジトリをどう整備するか」は意外と盲点になりがちだ。コードは書けても、ポートフォリオとして見せるリポジトリの作り方を体系的に学ぶ機会は少ない。今回はQiitaで話題になった記事をもとに、採用担当者目線で本当に評価されるGitHubリポジトリの構成をまとめてみた。 採用担当者はコードより「開発プロセス」を見ている まず前提として、採用担当者やテックリードがポートフォリオを評価するとき、<strong>コードの量や使用技術よりも「開発プロセスの質」を重視する</strong>という点は覚えておきたい。具体的には以下のような観点で評価される。 - コードの品質: 命名規則・関数の分割・エラーハンドリングの一貫性 - 設計力: ディレクトリ構成・関心の分離が明確かどうか - 開発プロセス: コミット履歴・PRの粒度・Issueの活用 - ドキュメント力: 第三者が5分で動かせるREADMEがあるか - 自動化への意識: CI/CDやLinterがGitHub Actionsで動いているか 「3つの未完成プロジェクトより、1つの完成されたプロジェクト」という言葉が本質を突いている。READMEが整備されCIが通りデモが動く状態のリポジトリ1本の方が、commit履歴だけのリポジトリ10本より圧倒的に評価が高い。 理想的なディレクトリ構成とテンプレート Webアプリを想定した場合、以下のような構成が推奨されている。 ` my-portfolio-app/ ├── .github/ │ ├── workflows/ │ │ ├── ci.yml # テスト・Lint │ │ └── deploy.yml # デプロイ │ ├── ISSUE_TEMPLATE/ │ │ ├── bug_report.yml │ │ └── feature_request.yml │ ├── PULL_REQUEST_TEMPLATE.md │ └── dependabot.yml ├── docs/ │ ├── architecture.md │ ├── adr/ # Architecture Decision Records │ └── api.md ├── src/ │ ├── components/ │ ├── hooks/ │ ├── lib/ │ └── types/ ├── tests/ │ ├── unit/ │ ├── integration/ │ └── e2e/ ├── .env.example # 秘密情報は含めない ├── docker-compose.yml ├── Dockerfile ├── LICENSE └── README.md ` ポイントは .github/ 配下の整備だ。<strong>IssueテンプレートとPRテンプレートを用意するだけで、「チーム開発を経験している人」という印象が一気に上がる</strong>。dependabot.ymlで依存関係の自動更新を設定しておくと、さらにプロらしさが増す。 コミットメッセージとブランチ戦略 fix update aaa の羅列になっているコミット履歴は即マイナス評価。Conventional Commits の形式を採用するのが現在のベストプラクティスだ。 ` feat: ユーザー認証機能を追加 fix: ログイン時のバリデーションエラーを修正 docs: READMEにセットアップ手順を追加 chore: ESLintの設定をflat configに移行 ` ブランチ戦略は main / develop / feature/xxx の3層構成が基本。個人開発でもPRを経由してmainにマージする習慣をつけることで、チーム開発経験をアピールできる。 GitHub Actionsで自動化を見せる CI/CDが設定されているリポジトリは、それだけで「自動化を当たり前にしている人」という評価につながる。最低限のci.ymlはこんな形だ。 `yaml name: CI on: push: branches: [main, develop] pull_request: branches: [main] jobs: test: runs-on: ubuntu-latest steps: - uses: actions/checkout@v4 - uses: actions/setup-node@v4 with: node-version: '20' cache: 'npm' - run: npm ci - run: npm run lint - run: npm test ` VercelやNetlifyへの自動デプロイも組み込んでおけば、採用担当者がその場でデモを触れる状態になる。<strong>「動くデモURL」はポートフォリオの説得力を何倍にも高める</strong>。 やりがちなNGパターンと所感 記事で紹介されているNGパターンをまとめると: - READMEが # project-name のまま放置 - .env ファイルをそのままコミット(セキュリティ的にもアウト) - コミットが WIP だらけ - テストが1件もない - デモ環境がなく動作確認ができない 個人的に一番共感したのは「量より質」の話だ。ポートフォリオとして出すなら1〜2本を完璧に仕上げる方が、採用担当者の時間も奪わないし印象も断然いい。元記事ではGitHubプロフィールREADMEの作り方まで網羅されており、バッジの付け方やコントリビューショングラフの見せ方まで解説されている。転職活動中のエンジニアはもちろん、就活を控えた学生にも一読の価値がある内容だ。

The Verge AI

ArmがついにCPUを自社製造——「Arm AGI CPU」をMetaのAIデータセンターへ、x86比2倍の性能/W

「ライセンス企業が自社チップを作る」という業界構造の転換点として見逃せないニュース。AI推論コストの削減を狙うエンジニアやインフラ担当者に特に刺さる内容だと思い選出した。

Armが「チップ設計ライセンス企業」から「チップメーカー」へ転身 ARMアーキテクチャといえば、スマートフォンからサーバーまで世界中のチップに使われている設計だが、そのArm社自身はこれまで一度もCPUを自社製造したことがなかった<strong>。ライセンス料で成り立つビジネスモデルを数十年維持してきた同社が、ついにその壁を越えた。2026年3月24日、Armは初の自社製CPU「</strong>Arm AGI CPU<strong>」を発表。最初のユーザーは</strong>Meta(旧Facebook)だ。 Arm AGI CPUの技術的なポイント 「AGI CPU」という名称はやや大げさに聞こえるが、内実は<strong>AIインフェレンス(推論処理)に特化したデータセンター向けCPU</strong>だ。AIエージェントのように次々とタスクを生成し続けるワークロードに最適化されている。 主なスペックと特徴は以下のとおり: - 最大136コア/CPU、エアクーリング対応のサーバーラック1台に最大64CPU搭載可能 - <strong>x86比で性能/W(ワットあたり性能)が約2倍</strong>という効率性 - メモリボトルネックの削減に注力した設計 - プラットフォームはNeoverse(AWS Graviton、Nvidia Vera、Microsoftのチップと共通基盤) Armのアーキテクチャが元々持つ電力効率の優位性を、データセンタースケールに引き上げた設計と言える。 MetaはなぜArmの「第1号顧客」になったのか Metaは今回、単なる顧客ではなく<strong>「リードパートナー兼共同開発者」</strong>として複数世代のAGI CPUに関わる契約を結んだ。Metaは以前から自社AIチップの開発に苦戦していると報じられており、今回の提携はその補完策とも見られる。 NvidiaやAMDのGPUと並行して、このCPUをAIインフラに組み込む形で運用する予定だ。AWS、Microsoft、Google、Nvidia、Samsung、Marvellなど名だたるArm顧客企業が祝福コメントを寄せた一方、ライセンス契約を巡る訴訟でArmと対立していたQualcommは名を連ねなかったのは興味深い点だ。 「自社チップを作れない会社」向けの選択肢 ArmのクラウドAI責任者Mohamed Awad氏はCNBCに対し、「自社でプロセッサを開発できない企業のための選択肢を提供することが目的」と述べている。ArmはすでにCerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP、SK Telecomなどを顧客として確保しており、GCP・AWS・Azureに依存しないAI推論インフラの新たな選択肢として注目を集めている。 まとめ——AIチップ市場の構造が変わる予感 Armの「チップメーカー転身」は、単なるビジネスモデルの変化ではない。NvidiaのGPU一強時代が続くAI推論市場に、電力効率で勝負できるCPUプレイヤーが本格参入した瞬間だ。SoftBank傘下として資金力も持つArmが、MetaやOpenAIといったAI最前線の企業と組んで何を作るか——今後の複数世代にわたる開発が非常に楽しみだ。

📝
Qiita

エンジニアが今すぐ自動化すべき「定型タスク」10選|AIプロンプト付きで即実践できる

「自動化できる技術はあるのに自動化していない」というエンジニアあるあるに正直に向き合った実践記事。プロンプトがそのままコピペできる形で載っているので、読んだ当日から使えるのが嬉しい。

「コードを書くのが好きでエンジニアになったのに、気づけば毎日同じ作業ばかり繰り返している」——そんな感覚を持ったことはないだろうか。Qiitaに投稿された本記事は、そんなモヤモヤに正面から向き合い、日常業務で地味に時間を奪っている定型タスク10選と、そのまま使えるプロンプト例をまとめた実践的なガイドだ。 自動化すべきタスクを見極める3つの基準 記事の核心にあるのは「何でも自動化すればいい」ではなく、自動化の優先度が高いタスクを正しく選ぶという考え方だ。以下の3条件が揃うタスクは、人間がやり続ける意味がほぼないと断言している。 - 繰り返し頻度が高い(週3回以上やっている) - 手順が決まっている(毎回ほぼ同じ操作をしている) - 判断がほとんど不要(考えなくてもできる) この視点は刺さる。エンジニアは「自動化できる技術力」はあるのに、「自動化すべき対象を見極める意識」が欠けているケースが多い。自動化は技術力の問題ではなく意識の問題、という指摘はまさにその通りだ。 10選の主要タスクとプロンプト例 紹介されている10タスクのうち、特に効果が大きいものをピックアップする。 ① 朝のSlack進捗報告 頭の中にある作業リストを文章化するコストは意外と大きい。以下のようなプロンプトで一発変換できる。 ` 以下の箇条書きから、Slackの朝の作業報告メッセージに整形してください。 絵文字を適度に使い、読みやすく簡潔にまとめてください。 ・今日の予定 - バグ修正 - コードレビュー(Aさんのプルリク) - 週次MTGの準備 ` <strong>② PR(プルリクエスト)の説明文生成</strong> コードは書けるのにPR Descriptionに詰まる——あるある体験だ。diffを貼り付けてこのプロンプトを叩けば、変更背景・何を変えたか・テスト観点を含む説明文が生成される。 ` 以下のdiffをもとに、GitHubのPR説明文を作成してください。 変更の背景・何を変えたか・テスト観点を含めてください。 [diffの内容をここに貼る] ` ③ コードレビューコメントのテンプレート化 「同じ指摘を何度も書いている」という消耗感を解消できる。よく使うコメントをストックしておくか、プロンプトで毎回生成する方法が紹介されている。 ` 以下のコードに対して、建設的なレビューコメントを日本語で書いてください。 指摘は具体的に、かつ相手が尊重されるトーンでお願いします。 [コードをここに貼る] ` ほかにも、リリース前チェックリスト生成・週次MTG議事録の骨子作成・障害報告文の下書きなど、現場エンジニアが「あ、これも自動化できたのか」と気づくタスクが並ぶ。 「節約できる時間」より「消耗しなくなる認知コスト」が大きい この記事で個人的に最も共感したのは、自動化のメリットを「時間の節約」だけで語っていない点だ。定型タスクの真のコストは毎回考え直す認知コストにある。Slackの進捗報告一つとっても、「どう書くか」を毎朝5分考えていたら、週に25分・年間20時間以上が思考の摩耗に消えている。 AIとスクリプトを組み合わせれば、こうしたタスクをゼロコストに近づけられる。週数時間分の業務をゼロに近づけられる可能性があると記事は示唆する。 まとめ:まず「自分の定型タスクリスト」を書き出すことから始めよう プロンプトはコピーしてすぐ使える形で掲載されているので、読んだその日から試せる。まず自分の日常業務を棚卸しして「繰り返し・手順固定・判断不要」の3条件に当てはまるタスクを探してみよう。意外と多くのものが自動化できることに気づくはずだ。元記事にはプロンプトの全文も掲載されているので、ぜひ手元の環境で動かしてみてほしい。