python - Sådan implementeres scrapyd til et netværk

Indlæg af Hanne Mølgaard Plasc

Problem



Jeg har i øjeblikket en forekomst af scrapyd op og kører lokalt på min maskine. Denne forekomst af scrapyd skal være tilgængelig for andre pc'er på mit arbejdsnetværk. Jeg har læst om scrapy-cloud (https://doc.scrapinghub.com/scrapy-cloud.html) og andre cloud-baserede tjenester. Men jeg vil hellere være vært for scrapyd på vores netværk, da edderkopper jeg har bygget pull data fra csv filer gemt på vores servere. [1]


Jeg har søgt gennem scrapyd dokumentationen (https://scrapyd.readthedocs.io/en/stable/) og forstår, hvordan man installerer og kører scrapyd. Jeg er også fortrolig med at uploade scrapy projekter til scrapyd og køre specifikke edderkopper. [2]


Hvilke skridt skal jeg tage for at gøre min scrapyd-instans tilgængelig for andre maskiner på vores netværk? Alle vores pc'er og servere kører på et Windows OS


Svaret behøver ikke at være en bestemt trinvis vejledning. Jeg søger bare efter nogen til at pege på mig i den rigtige retning, fordi jeg er usikker på, hvordan man kan fortsætte.

Bedste reference


hvis du er i en lan i samme rækkevidde af ip.


Du kan følge manualen og tjekke din ip
ifconfig i linux
ipconfig i windows


og kør kommandoerne i manualen
curl http://localhost: 6800/addversion.json -F projekt=myproject -F version=r23 -F egg=@myproject.egg [3]


og skift lokalehost med din ipaddress


for eksempel hvis din ip er 192.168.1.10


du vil køre
i anden pc}.


krølle http://192.168.1.10:6800/addversion.json -F projekt=myproject -F version=r23 -F egg=@myproject.egg [4]


Du skal åbne porten, hvis du bruger firewalls, og hvis du ikke bruger cURL i Windows, kan du downloade og installere det:
Hvordan installerer/opretter og bruger jeg cURL på Windows?


Flere oplysninger om api kontrollerer manualen