AIクローラーの扱いって、意外と“グレー”なまま放置されがちじゃないでしょうか?
Googlebot のような検索向けクローラーと違い、
Google-Extended / GPTBot / PerplexityBot / ClaudeBot は「生成AIに学習・要約・回答生成へ使われる」ことが目的。
だからこそ、露出を広げたい気持ちと、大切なコンテンツ資産を守りたい気持ちがぶつかりやすいんですよね。
とはいえ、すべてを禁止してしまうとブランド想起や間接的なアクセス機会を失うかもしれないし、逆にすべて許可すると独自コンテンツが大量に二次利用されるリスクもあります。
そこで本記事【前編】では、
-
どういう基準で「許可 / 禁止」を決めれば迷わないのか?
-
サイト内のどの領域をどう扱うべきなのか?
-
どこまで robots.txt に書き、どこを“方針”として別に公開すべきなのか?
こうした点を**ぼかしながらも実務で判断できる“型”**として整理します。
CMS運用者や小規模メディアの方が、自分のサイトに合わせたAIクローラー方針を作れる状態になることを目指します!
本ブログで分かること(清書)
本記事を読み終えると、次のポイントが“自分のサイトに当てはめて判断できる”ようになります。
-
AIクローラー許可/禁止の判断軸
└ ブランド露出・収益・権利・サーバ負荷という4視点で整理 -
クローラーごとの目的の違い
└ Google-Extended(生成AI向け)と GPTBot / PerplexityBot / ClaudeBot の役割を概念で理解 -
サイト内の領域別に線引きをする方法
└ 公開記事・画像・会員領域・検索結果などをどう扱うか -
方針の文書化のコツ(公開用1枚+内部用1枚)
└ どこまで公開し、どこから内部運用にするか -
そのまま使える方針テンプレ(許可寄り/部分許可/禁止寄り)
└ 迷ったときの“型”として活用可能
後編では、ここで決めた方針を
robots.txt → 公開 → 監視 → 見直し
という運用サイクルに落とし込む方法を扱います。
まずはこの前編で、あなたのサイトにとっての「AIクローラーの扱い方・守り方」の軸を一緒に固めていきましょう!
判断軸を4象限で決める
AIクローラー方針を決めるとき、多くのサイト運用者がつまずくポイントは「許可する? それとも禁止する?」の二択だけで考えてしまうところなんですよね。
実際には、もっと整理された“軸”があると判断がラクになります。
そこで前編では、
露出効果 × 収益/差別化 × 法務/権利 × 技術/負荷
という4つの軸を“4象限”のように扱って考える方法を紹介します。
迷うときは「どの軸が一番大事か?」を決めれば、方針が自然と見えてくるはずです!
露出効果 — AI回答・要約に載ることで間接流入/ブランド想起を得たいか
AI検索やAIチャットの回答に自分のサイトが“根拠”として引用されると、間接流入やブランド想起の効果が期待できます。
最近は、検索よりもAIに直接聞くユーザーも増えていますよね。「AIに載る=第一印象を握る」時代になりつつあります。

そのため、
-
ブログ型メディア
-
企業のナレッジ記事
-
ノウハウ系コンテンツ
では、AIクローラーを許可することで露出チャンスが増えるケースが多いです。
一方で、どれだけAIから流入が期待できるかはジャンルによって結構変わります。
例えば、話題性の高い一般テーマなら効果は出やすいですが、BtoBニッチ領域だと「AI経由で読む人自体がまだ少ない」という状況もあり得ます。
もし「露出を増やしたい!」が強いなら、まずは**“許可寄り”で試す**のが合理的です。
逆にブランド構築より内容保護が優先なら、後で紹介する“部分許可”や“禁止寄り”が向いています。
収益/差別化 — コンテンツが収益直結/有料か、独自性が高く模倣リスクが大きいか
次の軸は、コンテンツの価値がどれだけビジネスに直結しているかです。
例えば、
-
有料記事
-
会員限定ノウハウ
-
専門家による独自分析
などは、そのままAIに学習されると差別化が失われるリスクがあります。
特にGPTBot や PerplexityBot など、回答生成にダイレクトに使われる可能性があるボットは、コンテンツを“抽象化して要約”できてしまうため、結果的に「AIが答えるのでサイトに来ない」という状態を招きがち。
つまり、「このコンテンツはうちの強み!」というページほど、
ブロック or 部分許可が現実的になります。
逆に、ブログ記事やライトなノウハウのように“公開を前提とした資産”なら、許可したほうがリーチ獲得につながるケースも少なくありません。
要は、
“マネされると困る部分”だけ線を引いて守る
という考え方が重要なんです。
法務/権利 — 引用・出典の期待、再利用条件、第三者素材を含むか
3つ目の軸は、**コンテンツが他者の権利に依存していないか?**というポイント。
特に気を付けたいのが、
-
引用が多い記事
-
画像素材(特に有料素材)の使用
-
外部データの再編集コンテンツ
です。
AIクローラーは文章だけでなく画像パスもたどることがあり、場合によっては再利用されるリスクがあります。
自サイト内の権利問題だけでなく、素材提供者との契約条件を満たしているかも確認が必要なんですよね。
もし権利面が少しでも不安なら、
-
画像ディレクトリを丸ごとブロック
-
会員系・引用が多い記事だけ禁止
など「領域ごと禁止」が合理的です。
権利トラブルは後からのリカバリーが難しいので、この軸は他よりも慎重に扱うと安心です。
技術/負荷 — クロール頻度/帯域負荷、ボットの遵守性(守られない想定含む)
最後の軸は、あまり語られないけど実務では超重要なポイント、
**“ちゃんと robots.txt を守るか?(=遵守性)”と“サーバ負荷”**です。
AI系ボットは比較的お行儀が良いものが多いですが、
-
想定より高頻度で来る
-
一度に大量のリクエストを送る
こともあります。
さらに、すべてのAIクローラーが robots.txt を完璧に守るとは限りません。
そのため実務では、
「守られないケースもある前提で、重要領域は WAF レイヤで守る」
という設計がよく使われます。
また、CMSの種類によっては「画像一覧」「検索結果」など負荷が高くなるパスがあり、AIクローラーがそこにアクセスすると帯域が無駄に消費されることも。
つまり技術面の軸では、
-
高負荷パスの遮断
-
遵守しなかった時の“想定ライン”
-
CMSの弱点となるパスの整理
を行うのがポイントです。
クローラー種別の“概念整理”
AIクローラー方針を決めるうえで大事なのが、
「どのボットが何をしているのか?」
という“ざっくりした概念”をつかむことです。
名前は似ていても、Googlebot・Google-Extended・GPTBot…と目的が全然違います。
目的が違えば、許可/禁止の基準も変わるわけで、ここを混ぜてしまうと判断が一気にブレます。
この章では、
Google-Extended → 生成AI向けの利用トークン
GPTBot・PerplexityBot・ClaudeBot → 生成AIエンジンのデータ収集
Googlebot/Bingbot → 従来の検索クロール
という“レイヤごとの役割”を整理していきます。

Google-Extended — 検索本体とは別の生成AI利用可否向けトークン(概念)
Google-Extended は、Googlebot とはまったく別物です。
役割は「検索インデックス用」ではなく、
Gemini(旧Bard)など Google の生成AIに“学習/回答利用してよいか”を示すためのトークン
として機能します。
つまり Google-Extended を許可するかどうかは、
-
Google の AI 回答に自分の内容が使われてほしいか
-
要約/生成に組み込まれることに価値があるか
-
コンテンツ保護の優先度はどのくらいか
といった判断軸によって変わります。
注意したいのは、
Google-Extended を禁止しても Google 検索への露出は影響しない
という点。
Googlebot と用途が完全に別なので、検索順位を気にして“とりあえず許可しておこう”と考える必要はありません。
この“検索とは無関係”という前提を理解しておくと、方針がすごく決めやすくなるんです。
GPTBot / PerplexityBot / ClaudeBot — 生成AI/回答エンジン側の収集ボット(概念)
次に、GPTBot(OpenAI)、PerplexityBot、ClaudeBot(Anthropic)などの“生成AIエンジン側”のクローラーです。
これらは“検索”とは無関係で、
AIの回答生成・学習・要約モデルの改善のためのクロール
を目的としています。
つまり、許可すると
-
AIの回答に自分のサイトの内容が取り込まれる
-
要約や引用の形でAI内に「ノウハウの一部」が入りやすい
-
間接流入やブランド露出のチャンスが増える
というメリットがあります。
一方で、
AIが答えるのでサイトに来なくなるリスク
コンテンツの“独自性”が薄まる可能性
もあるため、ここはサイトのビジネスモデルと直結する判断になります。
また PerplexityBot は比較的積極的にページを回る傾向があり、
-
負荷
-
頻度
-
遵守性
なども実務上はチェックポイントになります。
“AIエンジン向けの学習ボットである”という理解を持っておくと、
「全部同じだからまとめて許可/禁止」ではなく、
“優先度に応じて部分許可”という選択肢が取れるようになります。
検索クローラーとの切り分け — Googlebot/Bingbot 等は従来の検索目的。混同しない方針を明記
最後に、検索クローラーとAIクローラーは必ず分けて考えるべきという話です。
Googlebot や Bingbot は “検索インデックスの構築” が目的で、
AI向け学習とは全く別。
ここを混同すると、「AI禁止にしたいけど Googlebot をブロックしてしまった!」という事故が起きます。
特に robots.txt の書き方では、
User-agent: *
などのワイルドカードが原因で、
意図せず検索クローラーまで抑制してしまう事故
が発生しがちです。
そのため方針ドキュメントでは必ず、
-
Googlebot/Bingbot → 従来の検索のため全面許可
-
生成AI系(Google-Extended / GPTBot / PerplexityBot / ClaudeBot)→ 別ルール
と“レイヤの違い”を明記しておくと、運用の混乱がなくなります。
結果として、後編で扱う robots.txt の実装もスムーズになるんですよね。
サイト内“領域ごとの扱い”を決める
AIクローラー方針を決めるうえで、実務で一番迷いやすいのが
「サイト内のどの部分を許可して、どこを禁止するか?」
という線引きです。
実はこれ、AIクローラー特有の話というよりも、
“サイトをどんな資産構造で運用しているか” がそのまま反映されます。
つまり、
-
公開して価値が上がる領域
-
守らないと損をする領域
-
技術的にクロールされると困る領域
を整理してしまえば、AIクローラーの扱いは驚くほど迷わなくなるんです。
ここでは、ほとんどのサイトに共通する“領域ごとの扱い方”を紹介します。

公開記事 — 方針に応じて許可 or 禁止
まずは、訪問者が読める一般公開の記事。
ここは AIクローラー方針の“中心” となる領域です。
公開記事を許可するかどうかは、
-
ブランド露出を増やしたいか
-
コンテンツの独自性を守りたいか
-
記事が収益(広告/アフィリ/リード獲得)に直結しているか
によって判断が変わります。
例えば、オウンドメディアやノウハウ系のブログであれば、
AI回答に引用されることで間接流入のチャンスも増えるため、
許可寄りにするケースも多いです。
一方で、専門性の高い分析系記事や“差別化の源泉”となるコンテンツは、
AIに学習されると価値が薄まる可能性があります。
そうした場合は、
-
記事カテゴリごとに禁止
-
特定の記事パスだけブロック
など、“部分許可”という選択が有効です。
公開記事は、ビジネス目的に沿って柔軟に線を引くのがポイントです。
画像/添付 — 画像/素材の二次利用を避けたい場合は専用パス単位で抑制
AIクローラーはテキストだけでなく、画像パスにもアクセスする場合があります。
ここで注意したいのは、画像の再利用リスクです。
特に以下のケースでは、AIクローラーのアクセスを避ける選択が増えます:
-
有料素材や購入ライセンスの画像を使っている
-
インフォグラフィックや図解が“自社の独自価値”になっている
-
会員向けPDF/スライドなどが格納されている
こうした素材がAIに学習されてしまうと、
第三者が似た画像をAI生成できるようになる可能性もあります。
そのため実務では、
-
/media/ -
/img/ -
/assets/file/
など、画像専用パスをまとめて AIクローラーのみ Disallow にする運用が一般的です。
テキストは許可しても、画像・添付ファイルは別で守る。
この“階層分け”が、もっとも安全でバランスの良い設計です。
会員/下書き/管理 — 必ず禁止(検索/AIともに)
ここは迷いなく、すべて禁止でOKです。
-
/admin/(管理画面) -
/draft/(下書き・プレビュー) -
/member/(会員サイト) -
/mypage/ -
/paywall/
など、限定公開領域は検索クローラーでも AIクローラーでもアクセスを許可してはいけません。
AIクローラー以前の問題ですが、
想定外のアクセスがあれば 情報漏洩や内部文書の露出 に直結するため、
robots.txt で必ず抑え、必要に応じて WAF 側でもブロックします。
特に気を付けたいのは、
“下書きURLの偶然ヒット” のような事例。
CMSによってはプレビューURLが外部から推測可能なこともあるので、/preview/ や /draft/ のようなパスは必ず対象に含めておくと安心です。
サイト内検索結果/一覧 — 原則禁止(価値希薄/重複誘発)
最後に、意外と忘れがちな サイト内検索結果 や 自動生成される一覧ページ です。
例えば:
-
/search?q=xxxxx -
/tags/xxxxx/page/1 -
/category/yyyy/page/2 -
/archive/
こうしたページは、
価値が薄い・重複が多い・負荷が高い
といった理由から、AIクローラーに限らず検索クローラーでも不利なことが多いです。
AIクローラーとしても、検索結果ページはほとんど意味がなく、
“クロールコストだけ増える”という状態に陥りやすいため、
ここは 全面禁止が最適解 です。
また、タグやカテゴリ一覧はコンテンツの「要約」ではなく「並び替え」にすぎないため、AIの学習対象としても適していません。
禁止してもユーザー体験に影響が出ることはありません。
方針の文書化(公開用 / 内部用)
AIクローラー方針は、決めたあとに 文書化しておくことが超重要 です。
なぜかというと——
運用が始まった途端、「このページはどう扱うんだっけ?」「例外はどこまで許される?」といった“判断のブレ”が必ず発生するからです。
そこでここでは、
・公開用1枚
・内部用1枚
という“2枚構成”で作る方法を紹介します。
ポイントは、すべてを一枚にまとめないこと。
「公開する内容」「内部ルール」の線引きを明確にすることで、
運用の混乱を減らし、見直しもラクになるんです。

公開用1枚 — 「当サイトは〇〇のAIクローラーを△△します。理由は××。」を短文化し、フッタ等からリンク
まずは外部公開用の「AIクローラー方針ページ」。
これは長文にする必要はありません。むしろ “1枚で説明し切れるシンプルさ” が大事です。
書く内容は主に3つ。
-
どのAIクローラーを許可/禁止しているか(Google-Extended / GPTBot / PerplexityBot / ClaudeBot など)
-
その判断理由(ブランド露出を重視/独自コンテンツ保護のため…など)
-
適用範囲(公開記事のみ、画像は除外、会員領域は対象外、など)
最低限これがあれば、外部から見ても「このサイトの扱いはこうなんだな」と理解できます。
また、公開ページは フッタリンクに1本置いておくと、AIクローラー側も参照しやすく、利用者にも透明性を示せます。
最近は「AIクローラーポリシー」「AIデータ利用方針」などの名称も広がっています。
長文化すると読まれないので、300〜600字程度で完結する“1枚もの”にするのが理想です。
内部用1枚 — 設定ルール、例外申請、見直しサイクル、監視/連絡フローをA4一枚で
一方で、実務ではこちらの内部用ドキュメントが“本体”になります。
内部用は公開しないため、少し細かめに
-
robots.txt の記述方針
-
「許可/禁止」の判断基準
-
領域ごとの扱い(記事・画像・会員エリアなど)
-
例外申請の流れ(担当者/承認者)
-
サーバーログの確認方法
-
クローラー名やUAの更新チェック
-
遵守しないボットへの対応(概念レベル)
などをまとめます。
特に重要なのが “例外申請フロー” です。
「この記事だけ例外で許可したい」「このカテゴリだけはブロックしたい」というケースは必ず発生します。
例外の扱いが曖昧なままだと、
-
設定が勝手に変更される
-
後から理由が分からない
-
誰が承認したのか不明
という“後追い不能な状態”になりがちです。
A4一枚に収まる量にすることで、
誰が見ても同じ判断ができる運用レベルに仕上がります。
改定のトリガ — 収益モデル変更、クレーム発生、新ボット出現、識別子名称変更 等
最後に、方針文書を**いつ見直すのか?(=改定トリガ)**を定義しておきます。
AIクローラーは、
-
新しいUAが突然増える
-
ボット名が変更される
-
仕様がアップデートされる
といった変化が多いため、“放置”は危険です。
おすすめの改定トリガは次のとおり:
-
収益モデルの変更(有料記事化、広告戦略の変更など)
-
AI経由での転載/誤引用のクレームが発生した
-
新しいAIクローラーが出現した
-
既存ボットの名称が変更された(例:UA文字列の更新)
-
画像・PDFなど素材の扱いを変更したい場合
-
四半期レビュー(定期チェック)
特に「名称変更」は見逃されがちなので、
“公開している方針ページに記載しているボット名が最新か?”を定期的に見直すことが大切です。
方針は“作ったら終わり”ではなく、
変化するAIエコシステムに合わせてアップデートする“生きた文書”として扱いましょう。
ケース別テンプレ(方針例)
AIクローラーの扱いは、実は 「どれが正解」というものがありません。
サイトの目的・収益モデル・強み・権利関係・サーバー負荷…すべてによって変わります。
とはいえゼロから考えるのは大変なので、ここでは
“許可寄り/部分許可/禁止寄り” の3つの代表パターンを、
そのまま使える“方針テンプレ”として紹介します。
あなたのサイトが今どのフェーズにあるかで、もっとも適切な型が見つかるはずです!

許可寄り — ブランド想起と間接露出を取りに行く(禁止は会員/管理/検索のみ)
まずは、もっとも攻めの姿勢である「許可寄り」パターン。
この方針は、
-
オウンドメディアで読者層を広げたい
-
ブランド露出を増やしたい
-
AI回答に引用されるメリットが大きい
-
コンテンツの“有料価値”がそれほど高くない
といったサイトに向いています。
基本方針としては、
公開記事はすべてAIクローラーに許可。
Google-Extended / GPTBot / PerplexityBot / ClaudeBot も同様です。
禁止するのは以下のみ:
-
会員領域
-
管理画面
-
下書き
-
サイト内検索結果
-
画像ディレクトリ(任意)
許可寄りの最大のメリットは、
「AIが勝手に宣伝してくれる」状態をつくれること。
AI回答の引用箇所は、検索とは異なる新しい導線になるため、メディア成長期なら相性は抜群です。
一方で、コンテンツの差別化が弱まりやすいというデメリットはあるため、価値の高いカテゴリは“部分禁止”にするなど、微調整しながら運用するのがコツです。
部分許可 — 記事のみ許可、画像や特定カテゴリはブロック
次は、もっとも多くのサイトが採用する“現実的な中間案”、
それが 部分許可 です。
この方針は、
-
記事はAIに引用されてもOK
-
でも画像・PDF・スライドは守りたい
-
特定ジャンルだけはAI学習されたくない
といった“守りと攻めの両立”を目指すサイトに最適です。
典型的な設定はこんな感じ:
許可するもの
-
公開記事(/blog/ など)
-
一般的なテキストコンテンツ
禁止するもの
-
画像ディレクトリ(/media/, /img/, /upload/)
-
特定カテゴリ(例:有料級ノウハウ、専門分析系)
-
PDF/添付ファイル
-
会員領域・管理領域・下書き・検索結果
AIに関して守りたいものがあるときは、
“パス単位で分けて禁止”にするのが一番ラクです。
部分許可のメリットは、
**「記事は露出、価値資産は保護」**というバランスの良さ。
AIクローラーの価値を享受しつつ、独自性の核となる部分を確実に守れるため、
中〜長期のサイト運営ではもっとも採用されるパターンです。
禁止寄り — 生成AIによる再利用を広く抑制、代わりに要約用メタ/抜粋を整備
最後は“防御重視”の禁止寄りです。
この方針は、
-
コンテンツが収益直結(有料/会員/コンサル導線など)
-
分析記事や独自視点が強み
-
生成AIによる要約を極力避けたい
-
誤引用や誤学習によるブランドリスクを最小化したい
というサイトに向いています。
具体的には、
AIクローラー(Google-Extended / GPTBot / PerplexityBot / ClaudeBot)をすべて Disallow。
検索クローラー(Googlebot / Bingbot)は従来どおり許可します。
ただし、禁止寄りで一点重要なのは、
「AIに内容を読まれないかわりに、要約してもらえない」という事実です。
そこで実務では、
-
<meta name="description">の精度を高める -
記事冒頭に“要約ブロック”を付ける
-
引用してほしい構造化データを整える
など、“検索エンジン向けの要約の質を上げる”対策をセットで行います。
禁止寄りは露出チャンスが減る反面、
コンテンツ価値と差別化を最大限守れる方針なので、
専門サイト、教育系、有料サブスクでは採用率が高い型です。
用語ミニ辞典
AIクローラー方針を考えるときによく出てくる専門用語を、ここで一度まとめておきます。
「難しそう…」と感じやすい単語も、ざっくり意味をつかめば判断しやすくなりますよ!
AIクローラー(AI Crawler)
GPTBot / PerplexityBot / ClaudeBot / Google-Extended など、
生成AIモデルの学習・回答生成・要約のためにページを巡回するボットの総称。
検索順位には関係ない“別レイヤのクローラー”という理解が大事です。
トークン(製品識別子 / User-Agent名)
Google-Extended など、AI利用可否を示す“識別名”。
User-Agent(UA)に含まれる名前で、クローラーの種類を見分けるIDのようなもの。
robots.txt はこの「名前」を元に許可/禁止を制御します。
遵守性(Robots Compliance)
robots.txt の指示をどれくらい守るか? を示す概念。
基本的には生成AI系ボットは“比較的お行儀が良い”のですが、
全てのアクセスが従うとは限らないため、重要な領域は WAF など他レイヤで保護する前提を持つと安心です。
領域(Site Area / パス)
サイト内の“住所”のようなもの。
例:
-
/blog/(公開記事) -
/media/(画像) -
/admin/(管理) -
/draft/(下書き)
AIクローラー方針の設計は、この領域ごとの線引きが最初のステップになります。
まとめ — AIクローラー方針は“目的×権利×負荷”の合意形成
AIクローラー(Google-Extended / GPTBot / PerplexityBot / ClaudeBot など)の扱いは、
単に「許可する? 禁止する?」の二択ではなく、
“目的 × 権利 × 技術負荷”の3つを掛け合わせて決めるのが最もブレにくい方法です。
-
ブランド露出を取りに行くのか
-
有料/独自コンテンツを守るのか
-
画像やPDFなど権利の重い素材をどう扱うのか
-
サーバー負荷をどこまで許容できるのか
こうした要素を整理し、“領域ごとに線を引く”ことで、
あなたのサイトに最適な AI クローラー方針が明確になります。
そして、決めた方針は
公開用1枚 / 内部用1枚 に分けて文書化し、
定期的にアップデートできる “生きたポリシー” として扱うことがポイントです。
次の【後編】では、ここで固めた方針を
robots の実装 → 公開 → ログ監視 → 見直しサイクル
という実務プロセスに落とし込んでいきます。
別記事への導線 — 次に読むべきステップと関連テーマ
Vol.11【後編】|実装と監視:robotsルールの型・ログ監視・見直しサイクル
前編で決めた方針を「どう実装して、どう運用して、どう見直すか?」を解説。
Allow/Disallow の書き方テンプレ、ログ監視ポイント、例外対応まで“実務に落とす”章です。
Vol.10【前後編】復習|E-E-A-Tの土台と記事単位の信頼設計
AIクローラー方針にも影響する「サイトの信頼軸」を整理。
コンテンツの“守るべき価値”を再確認したいときに最適です。
今回はここで終わりにしたいと思います!
最後までお読みいただきありがとうございました!
このブログでは「ChatGPT×副業」をテーマに、AIをフル活用したリアルな副業チャレンジを発信しています🎶
むずかしい話はナシで、「ちょっとやってみたいかも」と思えるような内容を目指しています😁
私は現在、ChatGPTを使ってTシャツのデザインを作って販売したり、
LINEスタンプのキャラ制作に挑戦したりしています👍
デザインの知識ゼロでも、AIの画像生成機能を使えばかなりいい感じになりますよ!
ブログの内容やSEO対策も、ぜんぶChatGPTに相談しながら書いています。
アイデアが出ないときも、相棒みたいに助けてくれます🎶
さらに、楽天ルームのレビュー文章もChatGPTと一緒に考えたり、
X(旧Twitter)の投稿や運用方法も提案してもらったりと、あらゆる場面でAIに頼っています。😅
「AIって便利そうだけど、自分にも使えるのかな?」
と思っている人には、ぜひ読んでほしいです。
このブログは、AI初心者でも副業が始められるように、
体験ベースでわかりやすく書いています。
私の成功も失敗もまるごとシェアしていくので、よかったら気軽に読んでいってくださいね。
Xでも日々の活動をゆるっと更新しているので、ぜひのぞいてみてください!
明日のあなたがより豊かになりますように😌
それでは、おやすみなさい😴
