Webpackerを使ったRailsでのJavaScript開発

こんにちは。マーケティングプロダクト開発部の長田です。

この記事では、私が現在進めているプロジェクトで、Webpackerを使ったJavaScriptのモジュール管理を導入したので、それについて紹介したいと思います。

Webpackerとは

Webpackerとは、Webpackを用いてRails上でJavaScript開発をするために必要な一連の流れを提供してくれる、Rails organizationで開発されているgemです。

これまで、Rails上でJavaScriptのパッケージをどのように管理するか、また、モジュール依存をどのように解決するかについて、多くの選択肢があり、それらをどう組み合わせて使うのかについて悩まされてきました。 このブログでも過去に何度か記事が投稿されており、その中でも複数の選択肢が上げられています。

私のプロジェクトでは、ユーザーが入力するフォームが多く、「リッチなフォームで使いやすい入稿システムを作りたい」という要件があったので、JavaScriptのパッケージをいくつか組み合わせて作ろうと思っていて、Yarn、Webpackを使って実現しようとしたのですが、考えることが多いなという印象でした。*1

このような問題に対してWebpackerを使うと、ある程度Railsの開発プロセスにのったJavaScriptの開発ができるのではないかと思い、これを機に導入を試みました。

導入

Webpackerのセットアップ方法や使い方等は README に載っているので、そこを参考にしつつ進めることで導入できました。

以下では、導入するにあたって検討したことについて、主に次の2点について紹介します。

  • JavaScriptファイルの配置の方針
  • フロントエンドのテスト

JavaScriptファイルの配置の方針

導入にあたって、悩んだのはディレクトリ構成をどうするかでした。

ポイントは以下の2点です。

  • app/assets/javascriptsの扱い
  • エントリーポイントとしてビルドするファイル

app/assets/javascriptsの扱い

Webpackerでモジュールを管理できるようになったとはいえ、RailsはSprocketsを捨てる訳ではないらしいので、viewごとのアセットは今まで通り、app/assets/javascripts以下に置いても良さそうなのですが、個人的には、モジュールの管理がプロジェクト内で分散するのは避けたかったため、全てのファイルをapp/javascripts以下に置くことにしました。

幸い、私のプロジェクトはスタートしたばかりで、ファイルが少なかったので、app/assetsにあるものを難なく移行するとこができました。

エントリーポイントとしてビルドするファイル

現時点で、 rails webpacker:install で生成されるWebpackの設定では、app/javascripts/packs直下に配置したファイルがそれぞれエントリーポイントとしてビルドされるような設定になっています。

私のプロジェクトではapp/assets/javascriptsに置いていたファイルはSprocketsで1つのファイルにまとめていたので、それと同じようにするには、app/javascripts/packs以下にapplication.jsだけを配置して、そこから、他のモジュールを読み込むようにする必要がありました。

しかし、以下の点から複数のエントリーポイントを作るようにしました。

  • JavaScriptが必要なviewごとにview modelを作る方針*2
  • 全てのviewにview modelがあるわけではない
    • むしろ少ない

という状態だったため、view modelごとにエントリーポイントを作り、必要なviewからjavascript_pack_tagで読み込むようにしました。

これにはメリット・デメリットはありますが、メリットとして大きいと思うのは、

  • JavaScriptの挙動の影響範囲を特定しやすくなる

という部分です。

1つのファイルにまとまっている場合、コードベースが大きくなると、ロジックがどこで定義されているのか、また、ロジックがどこに影響するのかの見通しが悪くなってしまいがちです。特にViewごとにJavaScriptを書いていて、それが1つのファイルにまとまっていた時、ファイルをまたいでDOMのidやclassが被ってしまうと予期せぬ挙動を与えてしまうこともありえると思います。

なので、複数のエントリーポイントを作り、必要なviewごとに読み込む方針は上のような問題に対しては有効だと思いました。

一方で、デメリットとして大きい思うのは、

  • エントリーポイントごとに、パッケージがバンドルされ、ファイルサイズが大きくなりがち

というのが挙げられますが、

  • エントリーポイントに含まれるパッケージが、まだそれほど大きくない
  • Webpackの設定で、共通のパッケージだけ別でビルドして最適化できる

という点から、デメリットは顕著に現れないだろうと考え、packs以下にview modelを配置して、それぞれエントリーポイントとしてビルドする方針にしました。*3

フロントエンドのテスト

フロントエンドのテストを書く手段として、

  • E2Eテストで、ブラウザの振る舞いをテストする
  • JavaScriptのモジュール単位でテストをする

2つの選択肢があると思うのですが、私のプロジェクトでは、前者を採用することにしました。理由は、

  • フロントエンドにロジックを持っているとはいえ、そこまで複雑なロジックではない
  • サーバーサイドのテストと同じフレームワークで書けるので、導入コストがほとんどない

という点から、E2EテストでJavaScriptで書いたロジックのテストをすることにしました。

そこで問題になったのは、モジュールのビルドをどのタイミングで行うかです。

いわゆるRails wayなプロジェクトだと、Sprocketsをつかってモジュール管理をすると思うのですが、Sprocketsはアセットのリクエスト時にビルドをしてくれるので、phantomjsなどのヘッドレスブラウザを使ってテストをすることで、アセットのビルドを気にすることなくE2Eテストが書けました。

しかし、Webpackerを使う場合は、テスト実行前にモジュールをビルドする必要があり、その設定とタイミングで悩みました。

私のプロジェクトでは、test環境のビルド設定をdevelopment環境に合わせ、テストフレームワークのフック等とは別で、あらかじめアセットをビルドする方針にしました。*4

ビルドの設定をdevelopment環境と合わせることで、開発中でもプロジェクトのビルド設定(RAILS_ENV的なもの)を変更することなくテストを実行できます。 また、ビルドのステップをテストとは別にすることで、開発中には不要なビルドが走らず、こまめにテストを実行することができます。

現時点で、rails webpacker:install で生成されるWebpackの設定は、test環境のものは生成されないので、config/webpack/test.jsを追加しました。

module.exports = require('./development.js');

こうすることで、RAILS_ENV=testの場合でも、bin/webpack を実行することでdevelopment環境と同じようにビルドすることができるので、CIで以下のようなスクリプトを書いても、開発中と同じようにテストをすることができます。

export RAILS_ENV=test
bin/webpack
# additional pre process
# test

まとめ

この記事では、RailsアプリケーションでWebpackerを使ったJavaScriptの開発について書きました。 Yarn、Webpackを使ったモダンなJavaScriptの開発環境が、rakeタスクなどが用意されている状態で、シュッと整うのは非常にいいと感じました。

ただ一方で、packs以下に配置するファイルの方針を考えたり、デフォルトのWebpackの設定だとディレクトリ構成に制約があったり、test用の環境はそれぞれでセットアップしなければいけなかったりするのと、今回の記事では触れませんでしたが、現時点ではCSSのビルドに対応できていない等、課題はまだまだありそうだなという感触です。

最後になりましたが、この記事がRailsでのJavaScriptの開発について、少しでもお役に立てれば幸いです。

*1:ビルド成果物をアセットパイプラインにのせるのかどうか、テストやデプロイ、digest等をどうするかを考えなければいけないので、多いなと思いました。

*2:私のプロジェクトでは、Vue.jsを導入しており、ここでview modelと呼んでいるのは、root vue instanceにあたります。

*3:ただし、しばらくWebpackerを使っていくうちに、不都合が出てきたときを想定して、Sprocketsに切りもどせるようにコードを書くよう意識しています。

*4:私のプロジェクトではRSpecを使っており、ここでいうフックとは、before(:suite)等のことを指します。

この gem を使っているアプリケーションを探す

技術部開発基盤グループの鈴木 (id:eagletmt) です。 Ruby アプリケーションが使っている gem を一覧できる GemCollector というツールを作りました。 今回はその GemCollector の機能と、GemCollector の利用シーンの拡大について紹介したいと思います

なお GemCollector は Rails Engine の形で gem として公開しています。 https://github.com/cookpad/gem_collector

GemCollector 作成の動機

GemCollector を作った元々の動機は我々開発基盤でメンテナンスしている gem を更新したいとき、とくに非互換を含む変更を行いたいときに、変更の影響を受けるアプリケーションを把握することでした。 社内でよく使われている gem であれば、事前に社内での使われ方を調査し、現実的に修正可能かどうか調べることができます。 そして現実的に修正可能であり実際に変更を行った後も、どのアプリケーションで更新作業が終わっていないかを把握しやすくなります。

GemCollector の動作

通常の Rails Engine を使うときのように、適当な Rails アプリケーションを用意し gem_collector gem をインストールして GemCollector::Engine をマウントして使います。 それに加えて PostgreSQL を用意したり GitHub のアクセストークンを設定したりする必要がありますが、詳しい手順は README をご覧ください。

GemCollector の動作はとてもシンプルで、GitHub の webhook の push イベントを契機としてそのリポジトリの最新のリビジョンを取得し、そこに含まれている Gemfile.lock の情報を DB に入れるだけです。 webhook は GitHub の設定ページから https://gem-collector.example.com/github-webhook を追加してもよいですが、GemCollector の Web UI からも追加できるようになっています。

New repository

それぞれの gem を利用しているリポジトリは Web UI から閲覧できるようにしています。実際に GarageClient をすべてのアプリケーションで更新したいときがあり、GemCollector を見ることで GarageClient を利用しているアプリケーションを把握することができました。

Repositories using garage_client

またこの利用シーンを拡張する形で、ある gem をバージョン X 以下で使っているリポジトリにバージョンアップのお知らせ issue を立てる機能が @taiki45 によって追加されました。 バージョンでフィルタした上で、作成する issue のタイトルと内容を指定できます。

Create news issue on repositories

GemCollector の使い道

最初は非互換な gem の変更の影響を受けるアプリケーションを把握するために書かれたツールでしたが、実際に利用してみるとある gem を使っているリポジトリを把握できると便利な場面が他にもありました。

  • 自分のアプリケーションでその gem を使おうとしているが、困っている部分があるのでそこをどう回避しているのかを社内で実際に動いているコードで見ることができる
  • 自分がメンテナンスしている gem で Rails 3.x のサポートを切りたいが、まだ Rails 3.x を使っているアプリケーションがあるか調べることができる
  • ある gem で security fix を含むバージョンがリリースされたが、社内でアップデートが済んでいないアプリケーションはどれか把握できる

gem の最新度

社内の Gemfile.lock の情報が集まってくると、今度は「自分のアプリケーションが使っている gem はどれだけ最新か」というのも見積もれるようになってきます。 技術部では開発者の生産性向上を目標の1つとしており、生産性に寄与する指標の1つとしてどれだけ最新の gem を使っているかを数値化して使えないだろうかと考えていました。 そこで社内の他のアプリケーションが使っている gem のバージョンと比較してどれくらい上位にあるかのポイントを独自の基準で計算して、Up-to-date Point という数値として表示するようにしました。

https://github.com/cookpad/gem_collector/blob/v1.0.0/app/models/gem_collector/repository.rb#L17-L53

以下のスクリーンショットは GemCollector を動かしているアプリケーションでの実際の例です。概ね最大値である 1.0 に近い値になっていますが、社内で Rails 5.1.0.rc1 を使っているアプリケーションがあるため、Rails 系の gem に対するポイントは 1.0 ではなくなっています。

Repository gem_collector

また、登録されている各リポジトリのポイントを日次で InfluxDB に入れることで、Grafana でリポジトリ毎のポイントの推移を確認できるようにしています。 見易さのために比較的良いスコア (> 0.8) と悪いスコア (< 0.5) に分けて閲覧できるようにしています。

Up-to-date Point chart

Up-to-date Point はまだ実験的な値で、社内で適用したところ大まかな指標としては間違っていなさそうですが、まだまだ改善点は多そうです。 たとえばこの方法だと、社内で利用者が少ない gem の場合に高得点になりがちです。そのアプリケーションでしか使ってない gem の場合、バージョンに関係なくその gem に対するポイントは 1.0 になってしまいます。 RubyGems.org では週次の PostgreSQL のダンプデータを公開しており、これを利用することでより正確に gem の最新度を見積もれるかもしれません。 https://rubygems.org/pages/data

まとめ

社内のアプリケーションが使っている gem の情報を集める GemCollector と、それの利用シーンについて紹介しました。 GemCollector は単純なしくみですが、これによって見えるようになった情報はとても役に立っています。 GemCollector のようにアプリケーションに関するデータを集め、それを見える状態にしたり数値化してみるのはいかがでしょうか。

知っていれば広がるグラフの見方とクエリの書き方のちょっとしたコツ

こんにちはサービス開発部のエンジニアの鈴木達矢です。

最近サービス開発においてエンジニアだけでなくディレクタがSQLを書く機会やBI Tool*1を元に意思決定する機会が増えてきました。クックパッドでもモバイルアプリに新機能を足すなどの各施策前後のKPI比較や施策後の経過を見るためにディレクタやエンジニアがクエリを書いてRedashを用いてグラフ化する光景が日常化しました。

モチベーション

この記事に書かれている内容は統計学を学んでいればごく入り口にあたる初歩的なことです。しかしながら、その初歩的な統計を学んでいない人にとっては、ビジュアライズされたデータからその特性をひと目で即座に把握できないことがあったりします。そのような状態ではグラフ付きの資料をゆっくり読む分には良いのですが、例えばミーティングやカンファレンスなどでグラフの意図をすぐに理解して意見を述べるのは難しいです。また、自分がグラフを起こす側である場合でも、特定のデータに対してどのような集計をしてグラフ化すれば良いのか検討するのに時間を要してしまいます。

そこで今日は既にウィンドウ関数を使ったことがある方を対象にクエリを書いてRedashでグラフ化するまでの間に知っていると便利なコツをご紹介しようと思います。数式は用いずそれぞれの基礎知識の用途や特性について説明しますが、あくまで導入として捉えていただき、実用に際しては数式を理解していることをお薦めします。

クエリのちょっとしたコツ

突然ですが、ウィンドウ関数は使っていますか?ウィンドウ関数を利用すると行動ログを利用して新機能開発前の意思決定や開発後の評価が簡単に行なえますね。ここでは背景にある統計学的な基礎知識を紹介しつつRedshiftのウィンドウ関数を例にとってコツを紹介しようと思います。

Redshiftのウィンドウ関数

AVG() - 平均値を取得する関数

代表値(データ値をデータ集合との関係で表した値)の一つ。データ値をデータ数で割った値を取得します。

使用例

Redshiftのリファレンスの例では販売IDごとに販売数(qty)の移動平均(この場合は初日からの販売数(qty)の累計/販売ID数(salesid))を算出しています。読者がウィンドウ関数の基本的概念や構文を理解している前提としてここでは解説はしません。

select salesid, dateid, sellerid, qty,
avg(qty) over
(order by dateid, salesid rows unbounded preceding) as avg
from winsales
order by 2,1;

salesid |   dateid   | sellerid | qty | avg
---------+------------+----------+-----+-----
30001 | 2003-08-02 |        3 |  10 |  10
10001 | 2003-12-24 |        1 |  10 |  10
10005 | 2003-12-24 |        1 |  30 |  16
40001 | 2004-01-09 |        4 |  40 |  22
10006 | 2004-01-18 |        1 |  10 |  20
20001 | 2004-02-12 |        2 |  20 |  20
40005 | 2004-02-12 |        4 |  10 |  18
20002 | 2004-02-16 |        2 |  20 |  18
30003 | 2004-04-18 |        3 |  15 |  18
30004 | 2004-04-18 |        3 |  20 |  18
30007 | 2004-09-07 |        3 |  30 |  19
(11 rows)

引用元

このようにソートした状態の以前のレコードに対して平均を出せるのがウィンドウ関数の便利なところですね。

代表値を何にするのか?

私たちは普段何気なく平均を使いますが、いつでも平均を使えるのでしょうか?例えば、ある会社Aの求人で平均年収700万円で、もう一方の会社Bの求人では平均年収が600万円だったとします。あなたがそれらの求人を見ているとして、平均年収だけでAを選ぶべきでしょうか?

蓋を開けて個別のお給料を見てみます

  • 会社A 500 + 500 + 550 + 550 + 1400 = 7500

  • 会社B 600 + 600 + 500 + 700 + 600 = 7000

会社Aは一人の年収が1400万円で残りの人は500万円台です。Aに入社したとしてお給料が500万円台になる確率が高いです。平均値には次ような特徴があります。

  • データの中に大きく外れた値があると信頼度が下がる
  • 平均 x データ個数 = 合計 であることが保証されている

平均を読み解く側も、利用する側もこれらの特徴に注意する必要があります。では、代表値の他の選択肢にはどのようなものがあるのでしょうか?

MEDIAN() - 中央値を取得する関数

中央値:データを小さい順に並べた時にデータ数の二等分する(中央に位置する)データの値

先の給与の例で言うと中央値はそれぞれ会社Aで550万円、会社Bで600万円になります。

中央値にはこのような特徴があります。 - データの中に大きく外れた値があっても信頼度が下がりづらい

使用例

Redshiftのリファレンスの例では販売者ID(sellerid)ごとに販売数の中央値を算出しています。

*.sellerid:3のデータはデータが偶数なので中央の15と20を足して割った17.5が中央値です

select sellerid, qty, median(qty) 
over (partition by sellerid) 
from winsales
order by sellerid;


sellerid    qty median
---------------------------
1       10  10.0
1       10  10.0
1       30  10.0
2       20  20.0
2       20  20.0
3       10  17.5
3       15  17.5
3       20  17.5
3       30  17.5
4       10  25.0
4       40  25.0

引用元

NTILE() - データを順位に応じて集団に分ける

さてここまで代表値を扱ってきましたが、NTILEはあるデータが全体のどの分布に入っているのかを大まかに把握するためのものです。データの分布をN個の集団に分けた時に、あるデータの所属集団を見つける時に使います。

例えば自分のマラソンのタイムがトップ集団に入っているか確認したいときなどに使うことができます。

使用例

Redshiftのリファレンスではハムレットという同じ演目に支払われたティケット料金を4つのグループ(ntile(4))に分類しています。

select eventname, caldate, pricepaid, ntile(4)
over(order by pricepaid desc) from sales, event, date
where sales.eventid=event.eventid and event.dateid=date.dateid and eventname='Hamlet'
and caldate='2008-08-26'
order by 4;

eventname |  caldate   | pricepaid | ntile
-----------+------------+-----------+-------
Hamlet    | 2008-08-26 |   1883.00 |     1
Hamlet    | 2008-08-26 |   1065.00 |     1
Hamlet    | 2008-08-26 |    589.00 |     1
Hamlet    | 2008-08-26 |    530.00 |     1
Hamlet    | 2008-08-26 |    472.00 |     1
Hamlet    | 2008-08-26 |    460.00 |     2
Hamlet    | 2008-08-26 |    355.00 |     2
Hamlet    | 2008-08-26 |    334.00 |     2
Hamlet    | 2008-08-26 |    296.00 |     2
Hamlet    | 2008-08-26 |    230.00 |     3
Hamlet    | 2008-08-26 |    216.00 |     3
Hamlet    | 2008-08-26 |    212.00 |     3
Hamlet    | 2008-08-26 |    106.00 |     3
Hamlet    | 2008-08-26 |    100.00 |     4
Hamlet    | 2008-08-26 |     94.00 |     4
Hamlet    | 2008-08-26 |     53.00 |     4
Hamlet    | 2008-08-26 |     25.00 |     4
(17 rows)

引用元

他にも統計のごく入り口の知識さえあれば有効に使える関数がRedshiftには元から用意されています。 ウィンドウ関数

ここまででSQLの作成に役立つ知識について解説しました。

グラフ

ここからはRedashを例に表現したいグラフを作るのに役立つ知識について解説します。サービス開発の際には線グラフ、棒グラフ(ヒストグラム)、箱ひげ図、散布図などがよく使われます。ここではこれらに絞ってデータの種類に応じてグラフにする方法を解説します。

グラフの選び方

あるデータの集合があるとき、それらをどのように並べるとより直感的に伝わりやすいのでしょうか?

例えばある施策によって利用デバイスごとのページの回遊が増えたかを確認したいとします。

  • A:一回の訪問で訪れるページ数をデバイスごとにグラフに表したい
  • 施策:ページ間の回遊を増やす新機能を追加した
  • B :一回の訪問で訪れるページ数をデバイスごとに施策前後で比較したいので時間的経過と共にグラフに表したい

Aであればヒストグラムの一つの棒をデバイスの種類として、縦軸を1回の訪問で訪れるページ数にすることで表現できます。もしくは円グラフでデバイスごとに割合を表すと分かりやすいでしょうか。

f:id:tatsuya-suzuki-cookpad:20170317095037p:plain f:id:tatsuya-suzuki-cookpad:20170317095055p:plain

ではBの施策後の時間的経過を把握しやすく表現したいときはどうすればよいでしょうか?例えばヒストグラムの一本の棒をデバイスごとの訪問数で色分けして、その一本を特定の期間として横軸で時間経過を表します。

f:id:tatsuya-suzuki-cookpad:20170317095122p:plain

このように表したいデータの内容や特性に応じてグラフやその先の表現方法(ここでは色分けのこと)を選ぶとより分かりやすいグラフを作ることができるようになります。

以下はRedashのVisualisation Editorでの作業になります。

ヒストグラム

あるグループを一つの棒に表しグループごとの分布を比較するのに適しています。

例. あるレシピサイトを訪れる人をX軸で日にちでY軸で訪問回数で表す

Redash

Visualization Type: Chart、Chart Type: Barを選択します。

f:id:tatsuya-suzuki-cookpad:20170317102242p:plain

レシピサイトを訪れる人数は土曜日と月曜日に多いように見えます。一見なんの規則性も無いように見えます。

Group by

General tabのGroup byでは表示分けをする集団を分けることができます。 この例の場合は性別で分けてみます。

Stacking

General tabのStackingでは1つの棒にグループを上乗せ(スタックする)ことができます この例の場合は性別を上乗せしてみます。

  • enabled 性別を色分けする。棒の高さは訪問者数の合計を表すので曜日によって異なる
  • percent 性別を色分けする。棒の高さは1日の100%を表すのですべての曜日で同じ

この例の場合は日にちごとの合計数が知りたいのでenabledを選択しました。 f:id:tatsuya-suzuki-cookpad:20170317095212p:plain

これでも割合は分からなくはないですががグラフを分けると山が見えてきます。

  • 女性

f:id:tatsuya-suzuki-cookpad:20170317095237p:plain

  • 男性

f:id:tatsuya-suzuki-cookpad:20170317095306p:plain

女性は週末にかけて山があるのに対して、男性はなぜか3月13日月曜日に山があるのがわかります。このレシピサイトの男性の訪問数が平日に多いのは珍しいことです。どうやら3月14日のホワイトデーのお返しを作っている人が多い日だったということがわかりました。

先述のような性質の異なる分布を一つに表している状態を多峰性の分布といいます。このようにビジュアライズ後に規則性が分かりづらかったグラフでも分解することで分かりやすくなることが有ります。クエリにおいてはなるべく集計前の状態をRedashに渡して、後々Redashのグラフ機能に集計や表示軸を設定するのを任せるという方法を取ると編集がしやすいです。

箱ひげ図

与えられたデータを小さい順に並べ、データ数を最小値、上位75%、中央値、上位25%、最大値で区切られる集合に4等分します。そのときの中央値の2つの集合を箱で表し、両端の集合はそれぞれ線(ヒゲ)で表します。データ数で等分するので、ヒゲや箱の大きさが小さいほどその集合のデータ密度が高いという事になります。この様に箱ひげ図では一つの箱ひげでヒストグラムで行っていた様なデータの分布具合を大まかに表現できます。

箱ひげ図について詳しくはこちらを参考にしてください

Redash

Visualization Type: Boxplot

f:id:tatsuya-suzuki-cookpad:20170317095816p:plain

散布図

縦軸、横軸に2つの分布の量や大きさ等をそれぞれ対応させ、データを点で表した図。2つの分布の相関を調べるために使います。

Redash

Visualization Type: Chart, Chart Type: Scatter

f:id:tatsuya-suzuki-cookpad:20170317095859p:plain

疑似相関に注意

ある要因がXの分布の理由でありYの分布の理由でもあるとき、XとYに因果関係がある様に見えること。例えば冷やし中華がよく売れるときにはビールも良く売れるお店があったとして、冷やし中華がよく売れる原因は冷やし中華ではなくて暑かったからといった場合です。散布図で示せるのは相関関係であり因果関係ではないのでデータから意思決定をする際は注意しましょう。

その他

ここでは取り上げられませんでしたがその他にも様々なビジュアライゼイションがRedashには用意されています。

  • Pivot Table

ExcelやGoogle Spread Sheetで使ったことがある人には馴染み深いと思いますが、クエリの結果をクロス集計したものを表にします。

  • Word Cloud

クエリの結果に出現する単語数を頻度に応じて大きくワードクラウドに表示します。検索によく使われるキーワードなどを表示するのに使うと便利そうです。

  • Counter

クエリ結果の特定のカラム値を表示します。単一の数値をKPIとして常にダッシュボードに表示しておきたいときなどに便利そうです。

まとめ

この様にデータの特性やグラフの特性を知っていれば自分が作りたい資料を作る力や資料を読み解く力はずっと良くなります。と同時に、日常生活においてもニュースで提示される資料を疑う力もおまけで付いてきます。いきなり統計学を学ぶとなると初めての人にはステップが大きいですが、知っているとすぐに役に立つことから学習とリターンのサイクルを小さく回してちょっとずつグラフへの理解を深めてみてはいかがでしょうか?

*1:ビジネスインテリジェンス・ツールとは企業活動に伴うビッグデータを収集して分析するためのツールです