見出し画像

デイトラのPythonコースで学習する内容をめっちゃ詳細に紹介します

デイトラのPythonコースのことが前から気になっていましたので、私も受講してみることにしました。

本記事では、デイトラのPythonコースで学べる内容を私の体験談も踏まえて、どこのサイトよりも詳細に解説していきます。

Webサイト作成やWebアプリ作成の内容も含まれているので、デザイナーの方にもオススメ出来るコースだと感じました。

デイトラのPythonコースで学習する内容(概要)

デイトラのPythonコースでは主に以下のプログラムやアプリを作成していきます。

全部のコースを合わせると約100日分ありますが、30分で終わる日もありますので、気軽に毎日続けることが出来ますよ。

・Pythonで特によく使う文法
・業務自動化ができるブラウザの自動化
・人気のツイートが一目で分かるTwitterのデータ分析
・未来の株価を知れる予測
・Youtubeの登録者をコスパ良く伸ばすためのデータ分析
・投資コンペで機械学習を用いた株価予測
・Tinderの自動化による恋人探し
・LINEチャットボット制作
・Instagramのフォロワーを伸ばすためのインサイト分析
・SNS分析アプリ作成

デイトラのPythonコース初級編

初級編では以下のプログラムを作成していきます。

・大手企業がいないキーワードを自動で収集+結果を書き出すプログラム
・あるキーワードのグーグル検索の1位から10位のURLの見出しを取得するプログラム
・ページの内部リンクを可視化して、内部SEOを強化するプログラム
・Twitterの色々なデータを分析してフォロワーを増やすためのプログラム
・ツイート内容を感情分析するプログラム
・機械学習で未来の株価を予測するプログラム

デイトラのPythonコース初級編:Day1_はじめに

Pythonコースで学習するための環境を整えていきます。

具体的には、

Google Chromeのインストール
Pythonのインストール(Windows編/Mac編)
VScodeのインストール
APIキーの取得(TwitterやYoutubeなど)

また、Pythonの基礎的な文法(formatメソッド、f-strings、len関数、辞書、タプルなど)もDay1で学習していきます。

Vscodeはとても便利なテキストエディターで、様々なプラグインを入れることでタイプミスを減らしたり、入力の手間を減らすことが出来ます。

やること多そう。。。1日で終わるのかな?
Day1は準備もあるため、やることが他のDayよりも多いです。
他のDayではもう少し量は少ないので、Day1は1日で完遂出来なくても問題ありませんよ!

デイトラのPythonコース初級編:Day2_条件分岐や繰り返し、モジュールのインストールについて学ぼう

Day2では、Pythonでよく使う処理や関数を学習します。

具体的には、以下の通りです。

条件分岐と繰り返し
例外の処理
組み込み関数、モジュール、import
上記の処理や関数はとても頻繁に使いますので、理解できない箇所は調べたり、チャットで質問することをお勧めします。

デイトラのPythonコース初級編:Day3_関数について学ぼう

Day3では、関数を重点的に学習します。

関数の定義の仕方とコードを関数化する方法というセクションのみの学習になっており、とても重要な概念になります。

関数の定義の方法を間違えるとエラーの元になり、この章を理解していないとエラーを探す際に迷走しやすいです。

デイトラのPythonコース初級編:Day4_エラーが起こった時の対処法を知ろう

Day4では、Pythonで起こる主要なエラーとその対処方法を学習します。

プログラムを作成している時間の半分以上はエラーを修正していると一般的に言われています。

このセクションで学習するエラーは私の経験したエラーの8割以上は網羅されていますので、何回も見直していましたね。

デイトラのPythonコース初級編:Day5_Pythonによるブラウザ自動操作①

Day5からは、「SEOで狙える大手企業がいないキーワードを自動で収集+結果を書き出す」というプログラムを作成していきます。

このプログラムに必要なツールのインストールが、このセクションではメインになります。

selunium
Googledriver
Pythonを学んだばかりで、いきなり難しそうなプログラムだな。理解しきれるか不安・・・

私も学習当初は不安に思っていましたが、難易度は高くないので大丈夫でした。
実際の生活でも応用できそうなプログラムを作成して、プログラミングを楽しむことが重要かもしれませんね。

デイトラのPythonコース初級編:Day6_Pythonによるブラウザ自動操作②

Day6では、作成するプログラムの全体像や、キーワードを自動で収集する構文の解説をしていきます。

実際に手を動かしてプログラムをどんどん作成していきますので、英文字のタイピングに慣れていない方は少し早く感じる方もいるかと思います。

動画のスピードを変更することも可能なので、慣れるまでは0.8倍再生にしてみると良いかもしれませんね。

デイトラのPythonコース初級編:Day7_Pythonによるブラウザ自動操作③

Day7では、正規表現に関して学習します。

正規表現とは「文字列を一つの形式で代表して表現するための表現方法」です。

例えば、yahoo.co.jpのようにco.jpで終わるサイトを抽出したい際に、正規表現を使用して絞り込む処理をします。

正規表現は昔勉強したことがあるけど、慣れることが出来なかったので不安だな・・・
本セッションでは、正規表現チェッカーというツールも使いますので、色々試しているうちに慣れることは出来ますよ!

デイトラのPythonコース初級編:Day8_Pythonによるブラウザ自動操作④

Day8ではreモジュールを利用して欲しいテキストを取得する方法やスライス操作を学習します。

reモジュールとスライス操作の解説を以下に記載しました。

reモジュール:Pythonで正規表現の処理を行う標準ライブラリのことです
スライス操作:シーケンス(リスト、文字列、タプル、バイト列など)の一部分を切り取り、コピーを返す仕組み

デイトラのPythonコース初級編:Day9_プログラムを関数化してみよう

Day9では、プログラムの最後の仕上げとして、これまで作成した各セクションのプログラムを関数化していきます。

また、これまで作成してきたプログラムのエラー処理も本セクションで実施します。

文字の打ち間違いなどで、動画で解説されていない内容のエラーが発生することもあり、対応方法が分からなかったらチャットで講師の方に聞いてみて下さい。

私もスペルミスのため動画とは異なるエラー内容が出てきてしまいましたが、チャットで質問するととても丁寧に解説して頂けました!

チャットが可能な時間帯は決まっているのでしょうか?
毎日13時~23時の間は講師の方がチャットルームに常駐していますので、質問するとすぐに回答を頂けますよ!

デイトラのPythonコース初級編:Day10_Googleスプレッドシートの準備

Day10からは、「あるキーワードのグーグル検索の1位から10位のURLの見出しを自動で取得するプログラム」を作成していきます。

本セクションでは、プログラムの構成の説明とGoogleスプレッドシート/必要なライブラリの準備、APIの取得などをします。

ブログを作成する方には便利なプログラムになりますし、ブログを作成しない方でも仕事に必要な情報の探索にも使えるプログラムです。

仕事で情報収集したいので、このプログラムを改変して、分からない箇所は講師の方に相談するというのもアリですよ!

デイトラのPythonコース初級編:Day11_Pythonによるブラウザ自動操作

Day11は、Pythonによるブラウザの自動操作についてです。

自動的にGoogleスプレッドシートにアクセスしたり、seleniumでブラウザを自動操作できるためのプログラムを作成していきます。

seleniumとは、「Web ブラウザの操作を自動化するためのフレームワーク」のことです。

seleniumを使うことで、クリック、キーボード入力、画面情報の取得などの画面操作を自動で実施することが出来ます。

デイトラのPythonコース初級編:Day12_条件分岐と繰り返しを使って要素を取り出してみよう

Day12は、Googleのディベロッパーツールを使用して、seleniumで自動的に処理が出来るように準備します。

ディベロッパーツールとは、「Google Chromeに標準で搭載されているデバッグツールで、WebサイトのHTML構成やCSS構成などサイトに関する情報を得ること可能なツール」のことです。

ディベロッパーツールは作成したいWebアプリの解析にも使用することが出来るとても便利なツールですので、ここでマスターしておくことをオススメします。

デイトラのPythonコース初級編:Day13_スクレイピングをしてみよう

Day13は、requestsとBeautifulSoupというライブラリの使用し、スクレイピング方法を学習します。

用語に関して分からない方もいるかと思いますので、それぞれ以下に簡単な解説を記載しました。

スクレイピング:ウェブサイトから情報を抽出する技術のことです。
requests:HTTP通信用のPythonのライブラリで、主にWEBスクレイピングでデータを取得目的で使用されます。
BeautifulSoup:HTMLおよびXMLドキュメントを解析するためのPythonのライブラリで、requestsなどで取得したデータを整形する目的で使用されます。
情報収集にとても役に立つツールですので、日常業務での情報収集を自動化出来るようになりますよ!

デイトラのPythonコース初級編:Day14_Googleスプレッドシートに結果を書き込んでみよう①

Day14は、スクレイピングで収集した情報をGoogleスプレッドシートに書き込むための準備をします。

Googleスプレッドシートに書き込むためには、アクセス権を付与する必要がありますので、その設定をこのセクションで実施していきます。

Googleスプレッドシートを使ったことが無い方でも、動画で分かりやすく解説されていますので、ご安心ください。

デイトラのPythonコース初級編:Day15_Googleスプレッドシートに結果を書き込んでみよう②

Day15では、Googleスプレッドシートに取得したい要素を書き込むコードを作成していきます。

Googleから取得出来る情報は色々ありますが、今回は記事のタイトル、url、説明文の情報を取得します。

また、このセクションにてプログラムが途中まで正常に出来ているかを確認し、バグの修正を実施しますので、正常に動作するまで修正してみて下さい。

デイトラのPythonコース初級編:Day16_プログラムを関数化してみよう

Day16では、最後の仕上げとしてプログラムを関数化していきます。

関数化は以前もやりましたので、そこまで問題なく対応出来るようになっているかと思います。

似たようなことを何度も実施していると、苦手なことも徐々に出来るようになりますので継続することが大切です。

Noteの構成だと見にくいので、Day17以降のPythonコースの内容は、以下の記事に掲載しました。


この記事が気に入ったらサポートをしてみませんか?