Rでウェブ解析:Google Search Consoleを操作!「searchConsoleR」パッケージ

Rの解析に役に立つ記事
スポンサーリンク

ついに、RからSearch Consoleを操作できるパッケージが登場しました。Yahoo!もSSL化し検索キーワードの取得が難しくなった今こそ、役に立つのではないでしょうか。ブラウザからSearch Consoleの操作に違和感を感じていた方は、ぜひ利用してみてください。

本パッケージでは検索アナリティクスの取得だけではなく、サイトマップの操作やクロールエラーなどのデータ取得ができます。RとSearch Consoleの連携も「gar_auth」コマンドを実行するだけのお手軽仕様です。

本サイトのデータを取得してみると、Rに関する記事やシャーロットに関するクエリが多いですが、7月に放送が終了した「ダンジョンに出会いを求めているのは間違っているのだろうか」に関するクエリ数が日に日に増えていることがわかりました。2期はやらないのでしょうか。「ダンまち」名作です。

パッケージのバージョンは0.1.2。R version 3.2.1でコマンドを確認しています。


スポンサーリンク

パッケージのインストール

下記コマンドを実行してください。

#パッケージのインストール
#install.packages("googleAuthR")
install.packages("searchConsoleR")

実行コマンド

詳細はコマンド、パッケージヘルプを確認してください。

#パッケージの読み込み
library("googleAuthR")
library("searchConsoleR")

#グーグルアカウントの許可
#実行するとウェブブラウザが起動します
gar_auth()

#サーチコンソールで管理しているサイトの取得
sc_websites <- list_websites()
sc_websites
siteUrl permissionLevel
1   https://www.karada-good.net/       siteOwner

#データの取得:search_analyticsコマンド
#取得データの設定:dimensions;"date","country","device","page","query"
#取得データのフィルタ:dimensionFilterExp;
#オプションの種類;"device:DESKTOP or MOBILE or TABLET","page","query"
#演算子の種類;含む:~~,含まない:!~,イコール:==,ノットイコール:!=
#取得データ数の指定:rowLimit;maxは5,000
#フィルタを指定せず検索クエリとページURLを含むデバイス別データを取得
#フィルタを指定する場合は#を削除してください
GetData <- search_analytics(siteURL = "https://www.karada-good.net/", 
                            startDate = "2015-07-01", endDate = "2015-08-01", 
                            dimensions = c("query", "page", "device"),
                            #dimensionFilterExp = c("device==DESKTOP","country==JPN"),
                            searchType = "web", rowLimit = 1000)
#データの抜粋,クエリ順位,クリック,インプレッション,CTRの数値は変更しています
query                                         page  device clicks impressions ctr position
ダンまち 二期 https://www.karada-good.net/analyticsr/r-126/  MOBILE   9999       99999 1   5.767786
ダンまち 2期 https://www.karada-good.net/analyticsr/r-126/  MOBILE   9999       99999 1   5.284398
ダンまち 2期 https://www.karada-good.net/analyticsr/r-126/ DESKTOP   9999       99999 1   5.376796
r テキストマイニング  https://www.karada-good.net/analyticsr/r-10/ DESKTOP   9999       99999 1   3.151659
シャーロット op https://www.karada-good.net/analyticsr/r-156/  MOBILE   9999       99999 1   9.353448
ダンまち二期 https://www.karada-good.net/analyticsr/r-126/  MOBILE   9999       99999 1   5.441573
#作業ディレクトリにデータのCSV出力
#mac用
write.csv(GetData, "GetData.csv", quote = FALSE,
          row.names = FALSE, fileEncoding = "CP932", eol = "\r\n")
#windows用
write.csv(GetData, "GetData.csv", quote = FALSE, row.names = FALSE)

#サイトマップの確認:list_sitemapsコマンド
list_sitemaps("https://www.karada-good.net/")
$sitemap
path            lastSubmitted isPending isSitemapsIndex           lastDownloaded warnings errors
1 https://www.karada-good.net/sitemap.xml 2015-04-13T22:49:34.958Z     FALSE            TRUE 2015-08-22T23:51:42.784Z        0      0

$contents
type submitted indexed
1  web       356     258

#サイトマップの追加:add_sitemapコマンド
add_sitemap(siteURL = "https://www.karada-good.net/", feedpath = "https://www.karada-good.net/sitemap.xml") 

#サイトマップの削除:delete_sitemapコマンド
delete_sitemap(siteURL = "https://www.karada-good.net/", feedpath = "https://www.karada-good.net/sitemap.xml") 

#クロールエラーの確認:crawl_errorsコマンド
CErrorsData <- crawl_errors("https://www.karada-good.net/")
head(CErrirsData)
platform category count  timecount
1      web notFound    17 2015-05-21
2      web notFound    17 2015-05-22
3      web notFound    18 2015-05-23
4      web notFound    19 2015-05-24
5      web notFound    20 2015-05-25
6      web notFound    20 2015-05-26

#URLエラーの取得:list_crawl_error_samplesコマンド
CErrorsListData <- list_crawl_error_samples("https://www.karada-good.net/")

少しでも、あなたのウェブや実験の解析が楽になりますように!!

タイトルとURLをコピーしました