皆様、こんにちは。
エコモットの板橋です。
前回は「バグ分析のすすめ」という事でバグ分析の価値について書いたのですが、このままだと、ただの理想論で終わってしまいますので、今回は具体的にどうやって導入したのかや、苦労した話などチームに定着させるまでのリアルな話をしたいと思います。
この記事は下記の記事の続編として記載しており、その内容を前提として進行していきます。
まだ読んでいない方は、先にお読みいただくことで、より理解が深まると思います。
バグ分析のすすめ
Tech blog
皆様、こんにちは。
エコモットの板橋です。
前回は「バグ分析のすすめ」という事でバグ分析の価値について書いたのですが、このままだと、ただの理想論で終わってしまいますので、今回は具体的にどうやって導入したのかや、苦労した話などチームに定着させるまでのリアルな話をしたいと思います。
この記事は下記の記事の続編として記載しており、その内容を前提として進行していきます。
まだ読んでいない方は、先にお読みいただくことで、より理解が深まると思います。
バグ分析のすすめ
Tech blog
みなさまこんにちは。
エコモットの板橋です。
今回は唐突に本題に入りますが、皆さんのチームでは、開発工程で発生したバグの情報をどの様に活用していますか?
え? 納品物にしか使っていない?
それはもったいないお話ですね。
バグの情報は、プロジェクトのバイタルサインとして使える事を皆さんは知っていますか?
新年度を迎えたという事で、新たなプロジェクトの立ち上げ準備を進めている方もいるかと思いますので、この機会に是非「バグ分析」にトライしてみてはいかがでしょうか。
進捗を管理するだけの退屈な「管理作業」が、アグレッシブな「知的業務」に代わるはずです!
続きを読む
Tech blog
2026年2月4日・10日の2日間、旭川工業高等専門学校3年生の「数理・データサイエンス」の授業で、実務家教員として私、入澤が講義を担当しました。昨年度に続き、2回目の担当になります。
Tech blog
みなさんこんにちは。
エコモットの板橋です。
現在は3月末という事で、3月末納品に向けて燃えている全力疾走中の所もあるのではないでしょうか。
先日公開した「プロジェクトのゴール設定」の話、「察する文化はシステム開発と相性が悪い」話と、少し関連してくる話になります。
今回はソフトウェア業界で良く飛び交う品質について掘り下げて考えていきたいと思います。
※今回ここに記載した内容は、執筆者である私の私見になります。
この記事を読みながら、一緒に皆さんも考えて頂けると嬉しいです。
Tech blog
Linuxサーバーの運用で「/etc/security/limits.conf を書き換えたのに実は反映されていなかった…」という経験はありませんか? 「確かにulimit -nで確認していたはずなのに、なぜ!?」
このような状態は、すぐにではなく時間がたって忘れたころに問題として現れます。。
今回、実際に詳細な比較検証を通じて「なぜ limits.conf だけでは不十分だったのか」そして「どうすれば全経路で確実に設定を反映できるのか」を3つのステップで解明しました。
これを機にあいまいな理解を整理して同じ失敗が起きないようにしておきましょう。
続きを読む
Tech blog

Tech blog
皆さんこんにちは。
GXソリューショングループの板橋です。
前回は、「システム開発プロジェクトのゴールは、安定した運用の状態に設定したほうがいいですよ」という話をしました。
今回は、システム開発失敗の大きな原因とその背景について少し掘り下げて考え、私のグループで実践している対策を少し紹介したいと思います。
※今回も文字成分多めになっちゃいました(テヘ
続きを読む
Tech blog
こんにちは!AX研究室庄内です。
私たちは、ある日を境に、それまで当然だと思っていた前提が覆ることがあります。
今日はMETRとOpenAIの記事を手がかりに、AIの現在地と、その変化のなかで私たちが何を見極め、どう備えるべきかを考えてみたいと思います。
Tech blog
ご無沙汰しております。エコモットの板橋です。
ブログを書くのは5年ぶり(前回はコードのコメントについて記載しました)になりますね。
わたしは相も変わらず、プロジェクトリーダーとして開発プロジェクトが無事に終わるようにガイド役に徹している日々を過ごしております。
今回は、開発プロジェクトにおけるゴールの設定と罠について少しお話したいと思います。
続きを読む
Tech blog
こんにちは!
SJC共同開発推進室の坂根です。
S3 で長期データを保管していると、コスト最適化のために Amazon S3 Intelligent-Tiering(以下、Intelligent-Tiering)を使っているというケースも多いのではないでしょうか。
アクセス頻度に応じて自動で階層を切り替えてくれるため、運用負荷も少なく、とても便利な仕組みだと思います。
そんな中、先日こんな場面に直面しました。
「半年以上前のデータを確認したい」と思い、S3 を開いたところ、オブジェクトは確かに存在しているのに、すぐに取得できない……。
対象は数万件。1件ずつ復元するのは現実的ではありません。
そんな状況を解消すべく、S3 Inventory・Athena・S3 Batch Operations を使って一括復元を試してみましたので、その方法をご紹介します。