text_tier2718

趣味でRによる分析をしています。

text_tier2718

趣味でRによる分析をしています。

最近の記事

rtweet 0.7→1.0バージョンアップで困ったこととその解決法のメモ【R】

◆rtweetがバージョンアップしましたRを使ってtwitterを収集するパッケージrtweetが0.7→1.0にバージョンアップされ、動作や取得できるデータが変わっています。 ◆変更点と困ったポイント認証周りが便利になったりしているのですが、使うにあたって以下のような困った点がありました。 ・ハッシュタグ使用頻度をグラフにできない。 ・csvやxlsxなどのエクセル形式で保存できない。 詳しい人にとっては全く大したことではないかもですが… ちょっと迷いましたので私なりの解

    • レシピサイトから砂肝と相性の良い食材を調べる【R/polite/netCoin】

      ●前書き 砂肝は安くておいしい。 和洋中様々なレシピがあり、どんな調理法や味付けが人気なのか気になるところです。 今回は砂肝のおいしい食べ方をレシピサイトで調べてみました。 Rで 今回の記事の経緯ですが、KHcoderの共起ネットワークをRのみで描きたいと試行錯誤していたところ、netCoinというパッケージでカッコイイインタラクティブな共起ネットワーク的なグラフを描けることが分かりました。 ただし、日本語はおろか英語すらnetCoinの使い方を解説しているページがほと

      • Rで古いファイルを削除する。

        # Delete files with creation dates prior to 365 days.library("dplyr")# 削除したいディレクトリパスを指定setwd("~/YOURPATH/")# set date and wordtime <- Sys.Date() - 365 # 本日より365日以前のファイルを削除search_word <- "ABC" # file名に"ABC"という文字列を含むfile.info(list.files()) %>

        • Twitterのハッシュタグをアソシエーション分析【R/arules】

          POSデータやレシートの分析で有名なアソシエーション分析をやってみたい。 データセットもライブラリ内蔵や既存ものではなく自分で用意したい。 ということでTwitterのハッシュタグをRのarulesパッケージでアソシエーション分析の練習をしてみました。 ●ツイートの収集 まずはrtweetパッケージで「#レシピ」に関するツイートを収集します。 rm(list=ls()); gc(); gc()if (!require("pacman")) install.packag

        rtweet 0.7→1.0バージョンアップで困ったこととその解決法のメモ【R】

          【R】easyPubMedとDeepL API keyでPubMed論文を収集しabstractを自動和訳する。

          ●初めに以前の記事でも取り上げた、PubMed収集に便利なeasyPubMed。 大量の論文を収集可能ですが、英語なので内容を誰かに共有する際に和訳するのが面倒なことがあります。 論文和訳に強い翻訳サービスDeepLを使うにもコピペするのは面倒。 そんな中、DeepL API keyを使ってRで翻訳を行う記事を見つけました。 R言語で、現在最強の機械翻訳ツール「DeepL API」を使ってみた件https://skume.net/entry/2021/06/13/235

          【R】easyPubMedとDeepL API keyでPubMed論文を収集しabstractを自動和訳する。

          【R/ggplot2】Visualization of the simplified effective reproduction number (Rt) of the number of new coronavirus positive cases by prefecture on a map of Japan.

          I would like to visualize the increase or decrease of the number of new coronavirus positive cases in Japan at the regional level. Therefore, I visualized the simplified effective reproduction number (Rt) of the number of new coronavirus-p

          【R/ggplot2】Visualization of the simplified effective reproduction number (Rt) of the number of new coronavirus positive cases by prefecture on a map of Japan.

          【R】rtweetでアカウントのツイートする曜日・日時のバブルプロットを作成する。

          https://ja.whotwi.com/ Twitterグラフィカル分析ツールwhotwiの これをRで作りたい。 if (!require("pacman")) install.packages("pacman")pacman::p_load( tidyverse, rtweet, lubridate)twitter_token <- create_token( app = "YOUR_APP_NAME", # your app name consume

          【R】rtweetでアカウントのツイートする曜日・日時のバブルプロットを作成する。

          【R Shiny】easyPubMedとShinyでPubMed論文情報収集アプリを作る

          論文を探す時にありがたいPubMed。 ただし、検索結果からabstractが見にくくてどんな論文か分かりにくい、興味のある論文の一覧化がしにくかったりと不便な点もあります。 特定のトピックをルーチンで検索して結果をまとめる…なんてのも大変。 そこでRのパッケージeasyPubMedのPubMed情報収集をShinyでアプリケーション化してみました。 下の記事を参考にさせていただきました。 コードは以下の通りです。 # cache clearrm(list = ls(

          【R Shiny】easyPubMedとShinyでPubMed論文情報収集アプリを作る

          【R Shiny】厚生労働省オープンデータで陽性者数推移を可視化できるShiny Webアプリケーションを作る。

          ◆はじめに 前回の記事をShinyでwebアプリケーション化する例です。 shinyの練習に作ってみました。 作成環境はWindows10+Rstudioです。 - Session info ---------------------------------------------------------------------------------------------------------------------------------------------

          【R Shiny】厚生労働省オープンデータで陽性者数推移を可視化できるShiny Webアプリケーションを作る。

          R言語:厚生労働省のページのコロナ陽性者数オープンデータを使ってtidyverseでグラフを描く

          ◆はじめに 厚生労働省のページのコロナ陽性者数オープンデータの方式が変更されました。県ごとのデータが追加されているようです。 以前の記事のコロナ陽性者数prophet予測では最新のデータに対応できなくなってしまいました。 データの内容はともかく、データがあれば触って整形し、処理し、可視化してみたくなるのがR使いの定めというもの。せっかくなのでdplyrとggplotの練習を兼ねて、良い感じのグラフを作成してみます。 こんな感じのPCR陽性者数の推移+7日間移動平均線+

          R言語:厚生労働省のページのコロナ陽性者数オープンデータを使ってtidyverseでグラフを描く

          RによるAmazonレビューの収集とテキスト分析

          2022/6/19 スクレイピングが可能であることを確認しました。 スクレイピングプログラムを英文でも取得できるよう改善しました。 ●はじめにAmazonで買い物をする際、レビューを参考にしない方はいないでしょう。 高評価であっても低評価であっても、レビューは貴重なユーザーの意見であり、情報の宝庫です。しかし大量にレビューがあると全て目を通すのには時間がかかりますし、高評価も低評価も様々で情報の整理は難しいですよね。もっと良い感じに要約、数値化できれば...ということで、今

          RによるAmazonレビューの収集とテキスト分析

          Rを使ったネット調査例。人々の「カレー」に対する注目を調べる。

          ●本記事でやること これまでの記事を応用して以下を実施します。 ・{gtrendsR} Google Trendsデータを利用し「カレー」が  1日の内で何時頃?  1週間の内の何曜日?  1年の内でいつごろ?  注目されるかを調べる。 ・{prophet}により今後の「カレー」の注目度の予測を行う。 ・{rtweet}により取得された「カレー」に関するツイートからRT上位ツイートを抜き出し、{wordcloud2}によってワードクラウドを作成、今現在のカレーに関するトピック

          Rを使ったネット調査例。人々の「カレー」に対する注目を調べる。

          R: forループ中でカイ二乗分布を描く

          forループ中でカイ二乗分布を描いて重ねる練習。 k = c(1, 3, 5, 10, 20)color = c("red", "green", "blue", "brown", "purple")for (i in 1:length(k)){ curve(dchisq(x, k[i]), 0, 30, col = color[i], add = TRUE)} # ggplot 参考にさせていただいたサイト https://abcxyzonetwothree.hatena

          R: forループ中でカイ二乗分布を描く

          Twitterの注目されている話題を{wordcloud2}でワードクラウド図にする

          Twitterで今何が人気なのか?何が話題になっているのか?を視覚的に理解したい時、また相手に伝える資料の図が必要な時、ワードクラウド図は美しく有用です。 今回はrtweetで「レシピ」ツイートを検索・収集し、RT上位のツイートに使われている言葉のワードクラウド図を作成します。これによって今どのようなレシピが流行しているのかを視覚的に理解できる図が得られるはずです。 こちらのURLを参考にさせていただきました。 https://miyastyle.net/twittera

          Twitterの注目されている話題を{wordcloud2}でワードクラウド図にする

          R言語:{rtweet}で収集した人気ツイートから画像を一括ダウンロードする

          rtweetパッケージで取得したツイートのデータから、画像を一気にDLします。 特定の話題に関する画像、流行の画像を一気に集めたい時に便利です。 # libraryの読み込みrequire("rtweet")require("tidyverse")# tokentwitter_token <- create_token(app = "****", # 自分で設定したappの名前 consumer_key = "****

          R言語:{rtweet}で収集した人気ツイートから画像を一括ダウンロードする

          R言語時系列データで遊ぶ2 {prophet}編

          ●本記事でやること・Rで時系列データを取り扱う。 ・{prophet}パッケージでコロナウイルスPCR陽性者数データの予測モデルを作成する。(当然予測はできません。) ・実データを加工し予測データと組み合わせ、ggplotで図示する。 ・残差によって予測モデルの正確性を評価する。 ●前置き前回のnoteに引き続き時系列データで遊んでいきます。 過去の時系列データを元に未来を予測するのは大変に興味深いところです。 売上データ、トレンドデータ、客数等々、為替チャート...様々な

          R言語時系列データで遊ぶ2 {prophet}編