見出し画像

note片思いの相手を探して,フォローを外すという「不毛」な時間

随分前に人材紹介会社で働いていた。
IT系企業担当という役回りで,IT系の企業で人材紹介会社を使いたい企業を開拓して求人を貰い,自社で抱える人材を紹介するという職務。

その際
「あずかっている求人票は一週間に一度以上更新せよ」
というタスクがあった。

求人情報と言うのは刻々と変わるから,しっかり企業と連絡を取り合って,アップデートを図りなさいね。これが本質。
とはいえ,実際求人内容なんて一週間に一度も変わることはないし,各々メンバーは求人のメンテナンス以上にやるべきタスクが多くあり一度貰った求人は、ほぼほぼ放置。それでも普通に仕事は回る。求人と求職者のマッチングさえ行えれば成績も上がる。

しかしながら、本質は間違っていないので上命下達。

現場レベルで徹底されて,管理職ができるルール化は「あずかっている求人票は一週間に一度以上更新せよ」という事になる。
Webシステムだったので最終更新日が記録されていて,一週間以上更新されていない求人があるとアラートが上がり,上長からメンバーに注意が入る。
メンバーは指摘されるのが嫌なので,ただとにかく求人を開いて,更新ボタンを押下するという作業を粛々と行う。

不毛である。

いちメンバーが取り扱う求人は,500件程度あって,ひとつの求人を開いて,閲覧して,閉じるという作業をするには,およそ20秒はかかる。

20秒×500件=10000秒
10000÷60≒166分
166分÷60≒2時間46分

200人程いるメンバーが「求人を開いて,更新を押下する」という毎週2時間46分の不毛な時間を過ごしていた。

で,その時にあまりの不毛さが嫌で,当時少しプログラミングをかじっていたこともあってVBscriptを使ってその作業を自動化した。
特に更新もない求人情報をただ開いて,更新ボタンを押下するという単純作業ならブラウザ操作でシステム化できる。
トイレに行く際やら,営業の移動中PCを触らない時間に,ワンクリックで求人情報の更新ボタンを押下するというプログラムをつくって「不毛」な時間を解消した。

今書いているだけで当時を思い出して不毛さへの辟易を思い出す。

最近これと同じような感覚があって,プログラム書こう,プログラム書こうって思いながら面倒くさくて腰が重いことがある。

SNS特有のフォロー整理である。

SNSではスパム防止やらその性質の維持を目的として大抵,フォローできるユーザーはフォロワー+○○人以内まで的なルールがある。

2021年3月時点で,noteだと今のところこの差はおそらく上限1000。そして,短時間にフォローまたはフォロー外しができる上限は15(16からエラーが返る)。

SNSでのつながりを増やす常套って,フォローして,フォローバックを貰って,フォローバックしてくれない人を解除するという事のルーティンだから,上限を設けることはサービス維持に妥当ではあると理解できる。
ただ,SNSの特性上,フォロワーを増やそうとするのは一つの営みで,フォロー,フォローバック,フォロー解除はたいてい発生するのです。で,そのやり方ってめちゃめちゃシンプルにもかかわらず,時間ばかりがかかってめちゃくちゃ不毛に思えるんですよね。行為そのものというより,システム化したらワンクリックなのに,手作業だとやたら時間がかかるという意味で。

さすがにフォロー、片思いチェック、フォローはずしを全自動にするとサーバーに負荷がかかったり、そもそもの意図に悖る気はするものの、せめて片思いの相手がわかるだけでも不毛な時間が軽減されると思ったので,そのプログラムをつくろうと腰をあげたのが昨日。

非公式だけれどapiはあるみたいだし。
試みている人もいるみたいだし。
いやいやもっと言うと依頼すれば片思いリスト作ってくださるという方もいるんだけど。

久々にプログラム書いてみよーって思いが高まって。
フォローユーザーと,フォロワーを取得して,その差分を出そうと思いながら今日は途中まで。だいぶ野暮ったいけど…。

#import
import requests
import json

##followers##
#url_followers="https://note.com/api/v1/followers/XXXXXXXX/list?page="

##followings##
#リクエストするURLを設定
for i in range(N):
if i == 0:
       continue
url_following="https://note.com/api/v1/followings/XXXXXXXX/list?page="
requesturl = url_following + str(i)
print(requesturl)

#URLをリクエスト
req=requests.get(url_following)

#取り出したデータをjson形式に変換
jsondata_following=req.json()

#json内のdataをdata変数に格納
data = jsondata_following["data"]

#data内のfollowing_list配列取り出し
following_list = data["following_list"]

#フォローしているurlnameを出力
for i in following_list:
 print(i["urlname"]) 

***

って,ここまで書いて再度調べてみるとソース公開されている方がいた…。

こちらを参考にして明日またトライしよう。
車輪の再発明はあまり好きじゃない。
今日はここまで。


いただいたサポートは活動費につかわせていただきます!