悠生/Python×SEO

株式会社エイチームライフデザインでSEOを担当しています。テクニカルもコンテンツもどっ…

悠生/Python×SEO

株式会社エイチームライフデザインでSEOを担当しています。テクニカルもコンテンツもどっちも好きです。

最近の記事

AhrefsのOrganicKeywordsデータのPosition changeをPolarsで処理できるように変換する

前回のnoteで、AhrefsのOrganic Keywordsからダウンロードしてきたデータでは「Positon change」にNewやLostの文字列が含まれていないため、CSV読み込み時に文字列型(pl.Utf8)として読み込まないといけないことを書きました。 しかしこのままでは順位変動の値が文字列になっていて、少し扱いづらいかなと思います。そこで今回は、Positon changeに入っている文字列を数値にするための方法を紹介します。 結論AhrefsのCSVを

    • Polarsのread_csv()で、AhrefsのCSVが読み込みエラーになるときの対策

      Polarsは高速かつ使いやすくておすすめのライブラリですが、read_csvやscan_csvでエラーが出てしまうことがあります。 特に「Pandasでは普通に読み込まれるのに、なんでPolarsだとエラーになるんだ??」というケースが非常に多く、私がPolarsを使い始めたときにはかなり頭を悩まされました。 今思い返すと単純な理由なのですが、解決策をなかなか見つけられなかったので、同じエラーに遭遇している方に向けて簡潔にまとめておこうと思います。 「Original

      • 【Python×SEO】コアアプデ分析のために順位帯ごとの変動をグラフ化する(Google Colab)

        SEOをしているとサイトの健康状態を計るために「1位のクエリは○個、2~3位のクエリは○個」といったように、順位帯ごとの獲得クエリ数を計測されていることがあるかと思います。 しかしこの調査では、「○位帯から増減しているクエリは、どの順位帯からランクインしたものなのか、どの順位帯に移動したのか」がわからないという弱点があります。 例えば以下のように順位帯ごとのキーワード数をカウントしている表があるとして、2~3位のクエリ数は20減少しています。しかし、この減少している20ク

        • 【Python×SEO】AhrefsのデータからURLごとのトラフィック上位5キーワードを抽出する

          AhrefsやSearch Consoleは便利である反面、データが膨大過ぎるためそのままでは活用しづらいことがあります。 特にURL×クエリの組み合わせのデータでは、1URLあたり数百キーワードが紐づいているケースもあり、「URLごとに獲得できている代表的なキーワードが何なのか」を調べるだけでも、複数のステップが必要です。 1000行、2000行程度のデータであれば問題なく処理できますが、数万行~数十万行のデータに対して手動で作業を行うと、各ステップごとに数十秒~数分待

        AhrefsのOrganicKeywordsデータのPosition changeをPolarsで処理できるように変換する

          よく使うPolarsのExpressionsのまとめ | DataFrameを加工・集計・抽出するための知識

          Polarsを使ってデータを加工・集計するためには、PolarsのExpressionsの使い方を理解する必要があります。 Expressionsには膨大な種類があることもあり、「Polarsでは何ができて何ができないのか」が分かっていなかったので、Polarsの公式リファレンスの中から、個人的に使う機会が多そうなExpressionsをまとめています。 Expressionsの基本的な使い方ExpressionsはDataFrame.select()や、DataFram

          よく使うPolarsのExpressionsのまとめ | DataFrameを加工・集計・抽出するための知識

          【Python×SEO】大量のURLを正規表現でカテゴリ分けする 単一カテゴリ編(Polars)

          SEOの作業のなかで地味に手間がかかるのが「URLのカテゴリ分け」。 カテゴリごとにディレクトリを綺麗に分けられているサイトであれば、ディレクトリごとに区切るだけでも整理できますが、そんなケースは稀です。 「正規表現でバーっと分類できたら良いのに……」と思いながらも、Excelやスプレッドシート関数で組むには複雑なので、結局は手作業で分類している方も多いかと思います。 今回はそんな辛い作業であるURLのカテゴリ分けを、Pythonで正規表現を使って一気に分類する方法を紹

          【Python×SEO】大量のURLを正規表現でカテゴリ分けする 単一カテゴリ編(Polars)

          【Python×SEO】robots.txtテスターが使えなくなったので複数URLの一括チェックができるコードを作った

          Search Consoleのrobots.txtテスターは2023年12月12日に廃止されてしまいました。 その後Search Consoleには「robots.txtレポート」という機能が追加されましたが、以前のrobots.txtテスターのように個別URLをチェックする機能がなく、「ちょっと求めてるツールじゃないんだよな感」があります。 一応、個別URLのクロール可否を確認する方法として、Search ConsoleのURL検査もありますが、1URLあたりのチェック

          【Python×SEO】robots.txtテスターが使えなくなったので複数URLの一括チェックができるコードを作った

          【Python×SEO】pandasのDataFrameのカラムの値から新しいカラムを作る(map, apply)

          前回のnoteに続いて、pandasを使ってAhrefsのOrganic Keywords 2.0のCSVを想定して、データの加工を行っていきます。 今回はDataFrameの値を使って、新しいカラムを作成します。 これにはmap関数もしくはapply関数を使用します。 map … 単一カラムの値に対して処理をする場合に使う apply … 複数カラムの値に対して処理をする場合に使う 単一カラムの値から新しいカラムを作成するには"map"を使用するmap関数では、Se

          【Python×SEO】pandasのDataFrameのカラムの値から新しいカラムを作る(map, apply)

          SEOにPythonを活用するために基礎から学び直す(CSVインポート・欠損値の処理)

          しばらくnoteを書いていなかったのですが、自分の学びの記録の意味も込めて、少しずつ書いていこうと思います。 当面はPython×SEOをテーマにして、かなり基本的なことから書いていきます。 なんでPython×SEO?SEOの分析ではAhrefsやSearch ConsoleからダウンロードしたCSVの加工・分析を頻繁に行います。 SEOの業務を行っている方であれば、ツールからCSVファイルをダウンロード▶Excelに貼り付け▶関数やピボットテーブルで加工▶分析、とい

          SEOにPythonを活用するために基礎から学び直す(CSVインポート・欠損値の処理)

          SEO調査が少しだけラクになる。10種類のブックマークレット

          はじめまして、中澤悠生(@Yuki_inhouseSeo)と申します。 2年前まで法人向けのSEOコンサルをしていて、現在はエイチームフィナジーという会社でSEOを担当しています。 SEO施策を進めるにあたって事前の調査は必須ですが、 ・SearchConsoleで流入クエリを調べたり ・Google検索で上位サイトの傾向を見たり ・Ahrefsで競合サイトを調査したり といったようにツールの種類も多く、工数はかかるし、割と面倒に感じている方も多いかと思います。 そ

          SEO調査が少しだけラクになる。10種類のブックマークレット