見出し画像

【情報収集】をどう効率化するか?Xリスト活用編

はじめに

情報過多の時代の情報収集。情報そのものの多さもだが、情報収集の手段も多様化しており、どのように効率よく情報収集すれば良いか悩ましい。
色々と試行錯誤した結果、現状の自分の方法を備忘録的に記載。
ポイントは

  • 情報収集するタイミングを決める

  • 活字でタイムライン形式で一気見:広く浅く→深く狭く

  • できるだけ一次情報にあたるか、フォーカスする人を絞る

  • 情報源をリストとして一元管理する

  • できない日があったとしても、しょうがないと割り切る

情報収集するタイミングを決める

自分の場合は、朝起きてから最初の30分のみをニュース見る時間と決めている。
たまに、一つの記事が気になってさらに深掘りしてリサーチすることがあるが、その場合でも45分は超えないようにしている。集中力が持続しないため。
朝早い時は5時、遅い時は7時起床とばらつきがあるのだが、下記のpythonプログラムで、朝5時になると自動で、朝チェックしておくべきニュースサイトのURLを開いた状態にしているので、デスクに着いたら、開かれているURLを見るところから始まる。

起床→洗顔→コーヒー入れる→デスクに向かう(ここまで5分)→ニュース見る という感じ。
他の選択肢を挟まないように(朝一番何しようかなと考えないように)している。

できるだけ一次情報にあたるか、フォーカスする人を絞る

入ってくる情報量が多すぎるので、情報源を絞る必要があるのだが、一次情報に当たるのが正確性という観点では望ましい。とはいえ、一次情報となる大抵は英語の文献や論文を毎回全てで読めるかというと、時間的に厳しい。
なので、その一次情報のリンクを基本添えてくれて、要約を解説してくれる人をフォローするようにしている。
SNSでは、インプレッション稼ぎのために、たとえばGPT関連の新機能が出たりすると 「これはすごい!業務効率化爆速間違いなし」 「もうOpenAIの独壇場は終わり?Claud3必見」
などと、若干煽りタイトルでユーザーを釣ろうとするのをよく見かけるが、ソースを添付していなかったり、実検証を伴っていなかったりで、実際試してみると、それほど日本語の精度良くないじゃんなどとなったり、反証のリツイートがされたりしているので、そういうのはフォローしない。
ちなみにGPT関連に関しては、自分の場合は、下記2人のみフォロー中

にゃんたさんのyoutubeでのAI関連に関する記事は、速報性とエンジニア目線で精度が高く、実際にOpenAIのAPIを使う場合のコーディングなども記載してくださっているので、プログラミングを書くという点でも参考になるのが多い。

チャエンさんは、有名なAIニュースの発信者で、投稿量が凄まじいので、Xでも全部は追いきれていないのだが、情報の速報性と正確性の両方を兼ね備えている。
また、たとえば、ハードウェアだと「ガジェット大好き!!」さんのみフォローしている。電子回路やPCBに関して詳しく発信されており、かつ、自分が今開発中の猫型ロボットで必要となる技術と近しいので。

という感じで、各テーマ(金融・IT・AI・ハードウェア etc)ごとに2-5名くらいフォローする人を決めて、Xのリストにしている。

情報源をリストとして一元管理する

自分の場合は、NewsPicksとXのリストの2つに集約して情報管理している。

NewsPicksのキーワード設定

NewsPicksは、キーワード設定ができるので、興味あるキーワードを登録しておくと、マイニュースというタブで、登録キーワードにヒットした記事のみタイムライン形式で表示されるので、スクロールしてまずはタイトルのみ、、、

続きは、こちらで記載しています。


この記事が参加している募集

#創作大賞2024

書いてみる

締切:

よろしければサポートお願いします!いただいたサポートはクリエイターとしての活動費に使わせていただきます!