最近、更新が滞っていましたが、某弊部会のスコープ図(スタック&コラボ図)を更新しましたので、久々にブログの更新をしました。
以下は、
前回の投稿(DX系施策の説明回)中の動画で話していた事(≒ 某弊部会のスコープ(スタック&コラボ))を、ちょっと、文字列的に書き起こしたモノになりますので、興味があったら、読んでみて下さい。
<v1:基幹系>
昨今、基幹系のRDBMSアプリケーション開発に必要な技術は枯れてきているので、v1の方に対する新規の機能追加の予定はありません(v1のサポート自体は、引き続き継続します)。
ただし、既存のアプリケーションをDockerやK8sへの対応については、リサーチと機能追加をして行く予定です。また、K8sのマニフェストや、Helm Charts、Rancher Chartsなどを使ってデプロイする方法などについても、調査を行っていく予定です(これは、v2.5に位置付けられる)。
<v2:Web系>
そして、Web系のSAML2, OAuth2 / OIDCの認証基盤とFrontendも2016 - 2020年のリサーチと機能追加で大方、やれるようになってきています。
<v3:DX系>
故に、2021年以降はDX系という事で、以降の主戦場は、v3:DX系(IoT, BD, AI/BI)のリサーチと機能追加になって行きます。
<IoT>
IoTでは、Node-REDを使用してPoC等がされるケースも多いようですが、最近はRaspberry Pi上で動作するLinux用のOSであるRasbian(Raspberry Pi OS)上でもDockerが利用可能になってきているようです。また、DockerでコンテナをBuildし、Docker HubにRegister、Docker ComposeでUPする事も可能の様です。
...という事で、先ずは
認証基盤に実装されたIoT用の認証フローを使用して、IoT DeviceやIoT Edge上のDockerアプリケーションを認証させるという事をやってみようと考えています。
<BD>
BD(ビッグデータ)は、昨今、基盤のメインストリームが、HadoopからSparkに移っているそうです。Hadoopがストレージのデータを分散処理するのに対し、Sparkはメモリにロードされたデータを分散処理します。Sparkは、「ITインフラテクノロジーAWARD 2015」でDockerに次ぐ準グランプリにもなっているプロダクトで、調べると、なかなか優れたソフトウェアとなっています。
例えば、メモリに読み込まれたデータに対するSpark SQLの処理要求は、オプティマイザによって分析され自動的に、Sparkのクラスタノードに分散されます。そして、バッチ処理以外にも、構造化ストリーミング処理を分散処理できるようです。また、処理は、Java, Scalaで実装しますが、言語バインディングによって、Python, RやC#などでの実装も可能になっています。
また、Sparkとよく組み合わせられるプロダクトに、Kafkaという分散メッセージキューがあります。Kafka+Sparkは大掛かりな処理なので、使用しないケースも多いと思いますが、ビッグデータを対象とするデータ・パイプラインで要求されるケースは増えていくと思います。
<AI/BI>
AIについては、今後コモディティ化が進んで行くモノと思います。故に、基本的には利用するダケのケースが増えていくと思いますが、独自のAIを開発が必要になるようなケースも増えていく可能性があるので、コチラについても必要に応じて、取り組むか否かを検討する予定です。
<ユースケース分析>
以前、
コチラにも書きましたが、これからは、技術だけではなく、ビジネス面についても並行して、リサーチしていこうと考えています。