Search

2026/02/27

RackNerd Clubとは何?少し使っての感想。低価格な海外VPS。試験向けに良さそう【中身は本家RackNerd、年間5400円の4GBプランおすすめ】

RackNerd Clubとは何?少し使っての感想。低価格な海外VPS。試験向けに良さそう【中身は本家RackNerd、年間5400円の4GBプランおすすめ】

海外VPSで検索すると出てくるRackNerdClub。その「RackNerd Club」の特価ページ(セール常設のように見えるやつ)について、 Redditのレビューや自分使ってみた感想を書きました。

先に結論:中身はアメリカのサーバーRackNerdと同じ。Redditで評判も普通。個人開発・小規模運用なら“普通に使える”。docker+Laravelとか動かして普通に使えた。おすすめは3.5GB・4GB。





RackNerd Clubって何?(ざっくり)

RackNerd Clubは、RackNerdのセール(ディール)をまとめて見せている日本語セールページです。クリックすると本家の英語ページに行きます。
日本語>https://racknerd.club/ja/
本家>https://www.racknerd.com/

メモリ2.5GBで約USD20年間 3220円は安い。
使えるのだろうかと不安になる。
でもテストするなら、NTT Web arena Indigo で2GB月額814円とか日本の格安VPSが多数あるのでそれでいいやと思ってしまう。

↓普通すぎるけど聞かない会社なので手が出しにくいウェブサイト・・・





Redditで多い評価:まずは「価格が安い」

Redditで調べてみました。
Redditでは「定価で買うよりセールページを見るべき」という趣旨のコメントが多め。 Black Fridayセールの価格の安いページがいつでも契約できます。
そこがさらに変に思えて契約するのが難しい・・・。

良い評判まとめ:個人用途・学習用途・小規模なら「十分」「2年以上問題なし」

ポジティブ寄りの意見で多いのは次のタイプです。

  • 「学習用途・検証環境・個人サイトなら十分」
  • 「2年以上動いていて大きな問題はない」
  • 「遅い/気になる点があったが、相談したら移行対応してくれた」
  • 「サポートが返信してくれた(IPv6有効化、rDNSなど)」

実際のスレ例:

注意点まとめ:「本番は冗長化した方がいい」「当たり外れ(ばらつき)」系の声もある

一方で、ネガティブ寄り・注意喚起寄りの意見も一定数あります。代表的なのは次のタイプ。

  • 「パフォーマンスが徐々に落ちた(オーバーセル疑惑)」
  • 「packet loss / network slowdown があった」
  • 「CPU steal が気になる」
  • 「本番クリティカル用途の“単独運用”は避ける」(=バックアップや冗長化前提が安心)
  • 「昔使った時に落ちまくった」という体験談

実際のスレ例:

まとめると、Redditの空気感はだいたいこうです: 「安い。個人用途ならOK。ただし“絶対止めたくない本番”は、単騎運用にしない」

(ざっくり)スペックの見方:迷ったら4GB

RackNerdのセールは時期で表記が変わりますが、だいたい次のレンジで出てきます。 迷ったら4GBが一番バランス良いです。

目安プラン 向いている用途 体感コメント
1GB〜2GB 検証、軽いWeb、踏み台、超小規模 安いが、Docker複数やDB同居だと窮屈になりがち
3GB 小規模アプリ、軽いAPI、WordPress数本 コスパ良いが、あと一歩余裕が欲しくなることがある
4GB(おすすめ) Laravel + DB + Nginx、Docker運用、軽めのAI系 安定運用の“最低ライン”として選びやすい

Redditでも「学習・検証には良い」「本番は冗長化」という意見が多いので、 4GBで余裕を作りつつ、バックアップや移行手順を最初から整えるのが現実的です。

スペックはこの画像。
racknerdのHome>何でもいいのでOrder now>カート手前ページで左のCategories一覧見る>BlackFriday2025
4GBで年間USD29.98+消費税=USD33/年
年間5339円|月間444円/1USD=161.8のカード支払い手数料込みで計算




おすすめの使い方

  • 個人開発・社内ツールの検証環境(まず動かして学ぶ)
  • 小規模のWeb/API(落ちても致命傷にならない設計)
  • バックアップ前提の本番(スナップショット、外部バックアップ、別リージョン待機など)

使ってみたRackNerd 4GB

4GBをカード決済で契約。
ユーザー名とパスワードがメールで送られてきた。
linuxサーバーはconoha wingをsshで数年使ってるだけ。

コマンド集を読みながら、わからないことはチャッピー全投げ。
Ubuntu24.0のLAサーバー。
OSアップデート、ファイヤーウォール、SSH、sudoユーザ作ってroot禁止の基本設定のみ。docker+nginx+Laravelでサンプルページ表示。
CloudFlareでDNS設定で公開。httpsも。

私のレベルですが、ここまでササッと遅滞なく公開までできた。
難しいことやらないなら普通のサーバーなのだと思います。
cp、mvなどのコマンド忘れてたのが一番時間かかりました。
Ubuntuだとnanoエディタあるので初心者には楽。
チャッピー指示でroot禁止を言われて、sudoできないユーザーでログインして焦りました・・・。
※RackNerdマイページのVNCサービスでrootログイン可能なのでここから再設定かOS再インストール。


結論

RackNerd Clubは「RackNerdの日本語版のセールページ」。
Redditでも“安い、普通に使える”という声。

ただし、品質にばらつき混雑などのコメントもあるため、 重要サービスは単独運用にしないのが安心。

迷うなら、最初は4GB
心配ならもっと低価格な2.5GBプランとか。使ってみて試す。
おそらく普通に付ける海外品質のVPSサービスです。
レスポンス気にするならNTT Web arena、さくらVPS、カゴヤ、Conohaが間違いないと思います。
低価格でそれなりのRAM容量でやりたい!
サーバー学びたい。
小規模な社内向けアプリの初期段階とかならRackNerdもありと思います。
ただし、海外なので各種リスクは考えての運用を。

2026/02/23

WhisperもLLMも無料で試せる?0円でAI APIを使う方法:Groq Cloud無料枠の簡単レビュー 2026年2月版

Groq Cloudは無料で使える?実際にAPIを試してわかった無料枠と制限まとめ

AI APIは便利ですが、気になるのは料金です。

OpenAIやAnthropicは従量課金制。
テスト段階ではできるだけコストを抑えたいものです。

そこで試してみたのが「Groq Cloudの無料枠(Free Tier)」です。
https://groq.com/

今回は、実際にAPIを使ってみた経験をもとに、

  • 無料枠の内容
  • どこまで実用的か
  • 制限は厳しいのか

を整理します。

目次の前にさらっと結論!
1:APIなので低スペックPCでも使える。便利
2:テストでやってみるなら全然OK
3:0円で使えるので消費量みて従量のコストが体感できる。怖くない
4:OpenAI形式なので汎用性のあるAPIが覚えられる
5:使ってみるとgeminiよりも応答の速いGroqすごいと思う
6:whisperでも応答が速い。Groqすごい
7:Groqの従量課金は高くないのでGroq使い勝手いいかも
8:調子にのって使っていると制限で使えなくなる

テスト環境はCPUは10世代のIntel+メモリ16GBの5万くらいの中古ノート
アマゾンならこういうの>https://amzn.to/3MTlDUd
ちゃんと動く。
PCではPowershellでURLアクセスとテキスト処理のみ。

もう少ししっかりテストするなら10万以下のこういうので↓いいと思う。
GROQのAPI運用ならローカルのスペックはそんなにいらない。
メモリ16GBでいいと思う。



Groqは応答速度が非常に速い。でも、OpenAIのgpt-5-nanoはかなりコストが安い
gpt-5-nanoでも十分ならOpenAIでいいのかも。nanoでも精度は良い。

https://developers.openai.com/api/docs/pricing
gpt-5-nano $0.05/1M-input $0.40/1M-Output
(↑1Mトークンでどこまでやれるの?の体感をGroqで試してみてもいいかも。)
(llama-3.3-70b-versatile、gpt-oss-120bで、GPT-4に足りないくらいの精度らしい)

Groq Cloudとは

Groq Cloudは、高速推論に特化したAI APIサービスです。

対応モデルには以下のようなものがあります。

  • Llama系モデル
  • Whisper(音声文字起こし)
  • Vision対応モデル

特に特徴的なのは、推論速度の速さです。

体感としては、他のAPIよりもレスポンスが非常に速い印象があります。
開発時のストレスが少ないのは大きな利点です。

無料枠(Free Tier)の内容

2026年2月時点での無料枠の概要は以下の通りです。
多くはないですが試験するには十分と思います。

Groq Free Tier Limits
Model RPM RPD TPM TPD
allam-2-7b307K6K500K
groq/compound3025070KNo limit
groq/compound-mini3025070KNo limit
llama-3.1-8b-instant3014.4K6K500K
llama-3.3-70b-versatile301K12K100K
meta-llama/llama-4-maverick-17b-128e-instruct301K6K500K
meta-llama/llama-4-scout-17b-16e-instruct301K30K500K
meta-llama/llama-guard-4-12b3014.4K15K500K
meta-llama/llama-prompt-guard-2-22m3014.4K15K500K
meta-llama/llama-prompt-guard-2-86m3014.4K15K500K
moonshotai/kimi-k2-instruct601K10K300K
moonshotai/kimi-k2-instruct-0905601K10K300K
openai/gpt-oss-120b301K8K200K
openai/gpt-oss-20b301K8K200K
openai/gpt-oss-safeguard-20b301K8K200K
qwen/qwen3-32b601K6K500K
Token Cost Comparison (1M tokens)
Model Input (1M) Output (1M)
OPENAI gpt-5-nano $0.05 $0.40
Groq GPT OSS 120B 128k $0.15 $0.60
Model Capabilities
Model テキスト 画像 特長
allam-2-7b×軽量高速
groq/compound×複合推論
groq/compound-mini×軽量複合
llama-3.1-8b-instant×超高速
llama-3.3-70b-versatile×高精度
meta-llama/llama-4-maverick-17b-128e-instruct視覚対応
meta-llama/llama-4-scout-17b-16e-instruct視覚高速
meta-llama/llama-guard-4-12b×安全判定
meta-llama/llama-prompt-guard-2-22m×入力検査
meta-llama/llama-prompt-guard-2-86m×高精検査
moonshotai/kimi-k2-instruct×長文強い
moonshotai/kimi-k2-instruct-0905×改良版
openai/gpt-oss-120b×大規模
openai/gpt-oss-20b×軽量版
openai/gpt-oss-safeguard-20b×安全特化
qwen/qwen3-32b×多言語

リクエスト制限

多くのモデルで 30リクエスト/分(RPM)

1日のリクエスト上限

モデルごとに異なります。

例:

  • llama-3.1-8b-instant → 約14,000回/日
  • llama-3.3-70b → 約1,000回/日

トークン制限

  • 1分あたり 6,000〜70,000トークン(モデルによる)
  • 1日あたり 100,000〜500,000トークン(モデルによる)

Whisper(音声API)

音声処理には時間ベースの制限があります。

例:

  • 1時間あたり 約120分の音声処理
  • 1日あたり 約8時間分

実際に使ってみた感想

テキスト処理

ブログ整形、OCR結果の整形、要約などは十分実用的です。
無料枠でも日常的なテスト用途には問題ありません。

Whisper文字起こし

2時間を超えるm4aファイルも、分割すれば対応可能です。
業務テスト用途としては十分な性能です。

注意点

  • 商用利用する場合は必ず利用規約を確認すること
  • 無料枠は予告なく変更される可能性があること
  • 同時実行数には制限があること

無料枠は実用レベルか

結論としては、開発・検証用途なら十分実用レベルです。

特に以下の用途には向いています。

  • OCR後のテキスト整形
  • Whisper文字起こし
  • 社内ツール開発
  • 小規模な自動化

本格運用の前段階としては非常に使いやすいサービスです。

まとめ

Groq Cloudは、無料枠でも十分に実用的なAI APIサービスです。

開発段階で従量課金を避けたい場合や、 まずは試してみたいという方には特におすすめできます。

といっても、OpenAIのAPIもとても高額な料金ではないので、 まずはやってみたい方ならいいかも。
Groqの反応速度は使い勝手よしです。


さらっとテストコード

<#
Get-Weather-Groq.ps1
- Open-Meteoで今日の天気(実データ)を取得
- Groq (llama-3.3-70b-versatile) に渡して「詳しく説明」させる
必要:
  $env:GROQ_API_KEY にAPIキーを設定
例:
  $env:GROQ_API_KEY="gsk_...."
  .\Get-Weather-Groq.ps1 -City "東京" -Language "ja"
#>

param(
  [Parameter(Mandatory=$false)][string]$City = "東京",
  [Parameter(Mandatory=$false)][string]$Language = "ja",
  [Parameter(Mandatory=$false)][string]$Timezone = "Asia/Tokyo",
  [Parameter(Mandatory=$false)][string]$Model = "llama-3.3-70b-versatile"
)

$ErrorActionPreference = "Stop"

# --- 0) Groq API Key ---
$apiKey = $env:GROQ_API_KEY
if ([string]::IsNullOrWhiteSpace($apiKey)) {
  throw "環境変数 GROQ_API_KEY が未設定です。例: `$env:GROQ_API_KEY='gsk_...'`"
}

# --- 1) 都市名 -> 緯度経度(Open-Meteo Geocoding) ---
$geoUrl = "https://geocoding-api.open-meteo.com/v1/search?name=$([uri]::EscapeDataString($City))&count=1&language=$Language&format=json"
$geo = Invoke-RestMethod -Uri $geoUrl -Method Get

if (-not $geo.results -or $geo.results.Count -eq 0) {
  throw "都市 '$City' の緯度経度が見つかりませんでした。別の表記で試してください。"
}

$place = $geo.results[0]
$lat = $place.latitude
$lon = $place.longitude
$resolvedName = $place.name
$admin = @($place.admin1, $place.country) -join ", "

# --- 2) 今日の天気(Open-Meteo Forecast) ---
# 取得項目(必要なら増やしてOK)
$meteoUrl = "https://api.open-meteo.com/v1/forecast" +
  "?latitude=$lat&longitude=$lon" +
  "&timezone=$([uri]::EscapeDataString($Timezone))" +
  "&forecast_days=1" +
  "&hourly=temperature_2m,apparent_temperature,precipitation_probability,precipitation,weathercode,windspeed_10m,windgusts_10m,winddirection_10m,relativehumidity_2m" +
  "&daily=weathercode,temperature_2m_max,temperature_2m_min,precipitation_sum,precipitation_probability_max,windspeed_10m_max,windgusts_10m_max,sunrise,sunset"

$wx = Invoke-RestMethod -Uri $meteoUrl -Method Get

# --- 3) Groq に「今日の天気を詳しく」説明させる ---
$today = (Get-Date).ToString("yyyy-MM-dd")
$system = @"
あなたは日本の天気解説の専門家です。
ユーザーが提供する天気APIのJSON(Open-Meteo)を根拠に、推測で補完せず、データに基づいて「今日の天気」を詳しく説明してください。
出力は日本語。読みやすい箇条書き中心。最後に「外出アドバイス」を短く付けてください。
"@

$user = @"
場所: $resolvedName ($admin)
日付: $today
次のOpen-Meteo JSONを解析して、今日の天気を詳しく解説してください。

--- OPEN-METEO JSON ---
$($wx | ConvertTo-Json -Depth 12)
"@

$endpoint = "https://api.groq.com/openai/v1/chat/completions"

$body = @{
  model = $Model
  messages = @(
    @{ role="system"; content=$system },
    @{ role="user"; content=$user }
  )
  temperature = 0.2
  top_p = 1
  max_tokens = 1200
} | ConvertTo-Json -Depth 10

$headers = @{
  "Authorization" = "Bearer $apiKey"
  "Content-Type"  = "application/json"
}

$res = Invoke-RestMethod -Method Post -Uri $endpoint -Headers $headers -Body $body
$text = $res.choices[0].message.content

# --- 4) 表示 ---
"=== 今日の天気(Groq解説)==="
$text

ページ上部へ戻る

2026/01/25

CPUでOCR処理:LightOnOCR-2-1B

PythonでのOCR処理。EasyOCRでやってました。

【2025年12月版】Windows で EasyOCR と Poppler を利用して PDF を OCR する手順
https://nokoshitamono.blogspot.com/2025/12/202512windows-easyocr-poppler-pdf-ocr.html

LightOnOCR-2-1Bでもやってみました。

EasyOCRは高速処理。
LightOnOCR-2-1Bはそれなりに時間がかかるけど、段組みの認識は強い。
CPUでも動くので使えるかも。
WikipediaのページをOCR処理した結果







モデルはどっかにダウンロードする
git lfs install
git clone https://huggingface.co/lightonai/LightOnOCR-2-1B c:/llamamodels/LightOnOCR-2-1B

あとは各ライブラリをpipでインストール。
pip checkで過不足ない感じにすれば動くはず。
torchはCUDA対応にすればGPU使えますが、CPUだけでも動きます。


# python lightonocr_local.py test.jpg --out result.txt
# python lightonocr_local.py book.pdf --pages 1,2,5-12

import argparse
import io
import os
from pathlib import Path
from typing import List, Optional, Tuple

import torch
from PIL import Image

# PDF対応(任意)
try:
    import pypdfium2 as pdfium
except Exception:
    pdfium = None

from transformers import LightOnOcrForConditionalGeneration, LightOnOcrProcessor

MODEL_PATH = r"c:/models/LightOnOCR-2-1B"

IMAGE_EXTS = {".png", ".jpg", ".jpeg", ".webp", ".bmp", ".tif", ".tiff"}


def pick_device() -> Tuple[str, torch.dtype]:
    """
    LightOnOCR公式例に合わせて:
      - mps -> float32
      - cuda -> bfloat16(対応しないGPUなら float16 に切替推奨)
      - cpu -> float32
    """
    if torch.backends.mps.is_available():
        return "mps", torch.float32
    if torch.cuda.is_available():
        # bf16 が怪しい場合は float16 に変更してください
        return "cuda", torch.bfloat16
    return "cpu", torch.float32

def resolve_device_and_dtype(device_arg: str, dtype_arg: str, force_fp16: bool) -> Tuple[str, torch.dtype]:
    """
    CLI指定に基づいて device と dtype を安全に確定する。
    device_arg: auto|cpu|cuda|cuda:0|cuda:1|mps
    dtype_arg : auto|fp32|fp16|bf16
    """
    # --- device 決定 ---
    if device_arg == "auto":
        if torch.backends.mps.is_available():
            device = "mps"
        elif torch.cuda.is_available():
            device = "cuda"
        else:
            device = "cpu"
    else:
        device = device_arg

    # --- device 実在チェック ---
    if device.startswith("cuda"):
        if not torch.cuda.is_available():
            raise RuntimeError("CUDAが利用できません。--device cpu を指定してください。")
        if device != "cuda":
            # cuda:0 のような形式
            try:
                idx = int(device.split(":")[1])
            except Exception:
                raise RuntimeError("CUDA指定は cuda または cuda:0 の形式で指定してください。")

            if idx < 0 or idx >= torch.cuda.device_count():
                raise RuntimeError(f"{device} は存在しません。CUDAは {torch.cuda.device_count()}枚です。")

    if device == "mps" and not torch.backends.mps.is_available():
        raise RuntimeError("MPS が利用できません。")

    # --- dtype 決定 ---
    if dtype_arg == "auto":
        if device.startswith("cuda"):
            dtype = torch.float16 if force_fp16 else torch.bfloat16
        else:
            dtype = torch.float32
    else:
        mp = {"fp32": torch.float32, "fp16": torch.float16, "bf16": torch.bfloat16}
        if dtype_arg not in mp:
            raise ValueError("--dtype は auto|fp32|fp16|bf16 のいずれかです")
        dtype = mp[dtype_arg]

    # MPSはfp32が安全(fp16/bf16で不安定になりやすい)
    if device == "mps":
        dtype = torch.float32

    return device, dtype



def load_images_from_path(path: Path, page_spec: str = "") -> List[Image.Image]:
    """
    path が:
      - 画像ファイル: 1枚
      - フォルダ: 画像を全列挙
      - PDF: 各ページをレンダして画像化(pypdfium2必須)
    """
    if path.is_dir():
        imgs = []
        for p in sorted(path.rglob("*")):
            if p.suffix.lower() in IMAGE_EXTS:
                imgs.append(Image.open(p).convert("RGB"))
        return imgs

    if path.suffix.lower() in IMAGE_EXTS:
        return [Image.open(path).convert("RGB")]

    if path.suffix.lower() == ".pdf":
        if pdfium is None:
            raise RuntimeError("PDFを処理するには `pip install pypdfium2` が必要です。")

        pdf_data = path.read_bytes()
        pdf = pdfium.PdfDocument(pdf_data)

        page_indices = parse_page_range(page_spec, len(pdf))

        images = []
        for i in page_indices:
            page = pdf[i]
            pil_img = page.render(scale=2.77).to_pil()
            images.append(pil_img.convert("RGB"))

        return images

    raise ValueError(f"未対応の入力です: {path}")

def parse_page_range(spec: str, total_pages: int) -> List[int]:
    """
    ページ指定文字列を 0-based index のリストに変換
    """
    if not spec:
        return list(range(total_pages))

    pages = set()

    for part in spec.split(","):
        part = part.strip()

        if "-" in part:
            start, end = part.split("-", 1)

            start_i = int(start) - 1 if start else 0
            end_i = int(end) - 1 if end else total_pages - 1

            start_i = max(start_i, 0)
            end_i = min(end_i, total_pages - 1)

            for i in range(start_i, end_i + 1):
                pages.add(i)
        else:
            i = int(part) - 1
            if 0 <= i < total_pages:
                pages.add(i)

    return sorted(pages)



@torch.inference_mode()
def ocr_image(
    model: LightOnOcrForConditionalGeneration,
    processor: LightOnOcrProcessor,
    image: Image.Image,
    device: str,
    dtype: torch.dtype,
    max_new_tokens: int = 1024,
) -> str:
    """
    Transformersの公式モデルカードにある会話テンプレ方式でOCRする。 :contentReference[oaicite:2]{index=2}
    """
    conversation = [
        {
            "role": "user",
            "content": [
                {"type": "image", "image": image},
            ],
        }
    ]

    inputs = processor.apply_chat_template(
        conversation,
        add_generation_prompt=True,
        tokenize=True,
        return_dict=True,
        return_tensors="pt",
    )

    # floatテンソルだけ dtype を当て、他は device のみ移動
    inputs = {
        k: (v.to(device=device, dtype=dtype) if v.is_floating_point() else v.to(device))
        for k, v in inputs.items()
    }

    output_ids = model.generate(**inputs, max_new_tokens=max_new_tokens)
    generated_ids = output_ids[0, inputs["input_ids"].shape[1] :]
    text = processor.decode(generated_ids, skip_special_tokens=True)
    return text.strip()


def main():
    ap = argparse.ArgumentParser()
    ap.add_argument("input", help="画像ファイル / 画像フォルダ / PDF のパス")
    ap.add_argument("--max_new_tokens", type=int, default=1024)
    ap.add_argument("--out", default="", help="出力テキスト保存先(未指定なら標準出力)")
    ap.add_argument("--page_sep", default="\n\n--- PAGE ---\n\n", help="複数ページの区切り")
    ap.add_argument("--force_fp16", action="store_true", help="CUDA時に fp16 を強制(bf16で不安定なら)")
    ap.add_argument("--pages", default="", help="PDFページ範囲(例: 1-5, 3-, -10, 1,3,5-7)※PDFのみ有効")
    ap.add_argument("--model", default="", help="HF model id or local path(未指定ならコード内の MODEL_PATH を使用)")

    # ★追加(GPU切替)
    ap.add_argument("--device", default="auto", help="実行デバイス: auto | cpu | cuda | cuda:0 | cuda:1 | mps")
    ap.add_argument("--dtype", default="auto", help="精度: auto | fp32 | fp16 | bf16(cuda以外はfp32推奨)")

    args = ap.parse_args()
    model_path = args.model if args.model else MODEL_PATH
    
    
    # ★追加(GPU切替)
    device, dtype = resolve_device_and_dtype(args.device, args.dtype, args.force_fp16)
    print(f"[INFO] device={device} dtype={dtype}")

    model = LightOnOcrForConditionalGeneration.from_pretrained(
        model_path,
        torch_dtype=dtype,
        local_files_only=True,
    ).to(device)

    processor = LightOnOcrProcessor.from_pretrained(
        model_path,
        local_files_only=True,
    )

    images = load_images_from_path(in_path, args.pages)
    if not images:
        raise RuntimeError("処理できる画像が見つかりませんでした。")

    texts: List[str] = []
    for idx, img in enumerate(images, start=1):
        print(f"[INFO] OCR {idx}/{len(images)} ...")
        txt = ocr_image(
            model=model,
            processor=processor,
            image=img,
            device=device,
            dtype=dtype,
            max_new_tokens=args.max_new_tokens,
        )
        texts.append(txt)

    final_text = args.page_sep.join(texts)

    if args.out:
        out_path = Path(args.out)
        out_path.write_text(final_text, encoding="utf-8")
        print(f"[INFO] saved: {out_path}")
    else:
        print(final_text)


if __name__ == "__main__":
    main()