見出し画像

note バックアップ取得への苦難

我々クリエーターにとって
大事な資産である記事に関し
バックアップ運用を検討されたことは
ありますでしょうか?

私はバックアップを取得しておらず、
有事の際に備えバックアップを
取得しようとトライしてみました。

その結果、、、、

画像1

未だバックアップをとれていません・・・

手ごわすぎです。

本日は皆さんが私のように
数時間も時間を浪費せずにすむよう、
どのようにトライして、
どのようにできなかったか
纏めてみます。

<  CompleteGetterの場合 >

ホームページをローカル保存するときに
使われる有名フリーソフトの一つ、
CompleteGetterを使ってみました。

よくこのソフトを使っていましたので
これでサクッとできるだろうと、
思っていました。

ですが、noteの場合はこちらは、
ダウンロードしたいサイトのURLを
正しく入力しているのですが、
「URLがただしくありません」
とのエラーメッセージが表記され
バックアップができません。。。

「 https 」スタートだったものを
「 http 」に直してみると、
バックアップは走るものの、
全然保存してくれませんでした。

<  HTTackの場合 >

こちらもブログ・ホームページの
ローカル保存の有名どころの
フリーソフトです。

こちらは、サイトのダウンロードを
開始するとダウンロードは始まるのですが、
タチサラのサイト部分だけを
保存するのではなく、

タチサラの上位階層まで行き、
非常に沢山の記事をダウンロード
しようとします。

タチサラのメインページからの
下位階層の私の記事だけをダウンロード
できればいいのですが、
色々と設定を変えてみましたが、
どうしてもだめでした。

このアプリは初めての利用だったので
そういう仕様なのかと思いましたが、
ほかのサイトで同様に
ダウンロードしてみたところ
思い通りに動作したので、
これ以上向き合うのはやめました。。。

< SiteSuckerの場合 >

上に述べた二つのアプリは、
Windowsだったので、
今度はMacでトライしてみました。

Macでの有名なホームページの
ダウンロードソフトは、
調べてみるとSiteSuckerという
フリーソフトを発見しました。

これで解決できればと思いましたが、
結果は「HTTrack」と同じで、
下位階層の保存だけではなく、
上位階層の保存まで保存しようとして、
目的のタチサラの記事だけを
保存することはできませんでした。


という形で、昨日に続き
本日もnoteバックアップ大作戦を
試みましたが失敗に終わってます。

私の知識不足によってただ
バックアップが取れていない
だけかもしれませんが、

この二日間でわかったことは、
以下になります。

<noteのバックアップに関して>
1.noteのバックアップは
  一筋縄ではいかない!
2.noteのプラットフォームを信じ
  バックアップを取らない
3.毎回記事投稿するときに
  個別に一つ一つの記事を
  バックアップする

もしどなたか、
noteのバックアップ簡単にできるよ!
という方法をご存知の方、
アドバイス頂けますと幸いです。

昨日に引き続き本日も、
noteバックアップ談義に
お付き合いいただき
ありがとうございました。

サポート、スキ、フォロー、一つでもしていただけると今後の活動の励みになります!