GNU/Linux >> Znalost Linux >  >> Linux

Automatizace webových požadavků pomocí Curl?

Mám nějaké „korporativní“ systémy, které musím v práci používat. Některé z nich jsou hrozné, s rámečky, vyskakovacími okny a tak.

Přemýšlel jsem o automatizaci některých věcí pomocí curl nebo něčeho podobného. Potřebuji se přihlásit, kliknout na hypertextové odkazy, nastavit nějaká data a oni odešlou.

Je možné použít curl? Nebo budu lepší používat něco jako selen?

Přijatá odpověď:

Ano, s curl je to plně možné. Nejdůležitější bude uložit a znovu načíst soubory cookie mezi použitím curl pomocí --cookie-jar . Podle potřeby můžete také odeslat data formuláře. Obvykle používám doplněk Firefoxu s názvem Live HTTP Headers k zachycení toho, co se děje, když procházím web. Zaznamená všechna záhlaví, ale také všechny příspěvky z formuláře, což je velmi užitečné, když se snažíte zjistit, co dělat s curl. Napsal jsem bash skripty, které automatizují různá vyvolání curl a používají roury a dočasné soubory (s laskavým svolením mktemp ), abych na webové stránce provedl nějaké omezené zpracování, ale pokud musím provést velké zpracování webových stránek, obvykle přejdu na Perl s LibWWW.


Linux
  1. Použití Ansible k interakci s webovými koncovými body

  2. Kontrola stavu webové stránky pomocí Curl?

  3. wget vs curl:Jak stahovat soubory pomocí wget a curl

  1. Automatizace spouštění příkazů na Linuxu z Windows pomocí PuTTY

  2. Paralelní stahování pomocí nástroje příkazového řádku Curl

  3. provádění požadavků HTTP pomocí cURL (pomocí PROXY)

  1. Použití curl k odeslání e-mailu

  2. Použití proměnných prostředí v příkazu cURL - Unix

  3. Ubuntu:Pomocí curl ke stažení obrázku