Jag är huvudforskare för ett kommersiellt mäklarföretag. Jag vet inte om en perfekt källa för vad du letar efter, men här är några proxys du kan prova
betald alternativ: Costarhttp://www.costar.com/ har vad några av vad du vill, men de är en pay-for service. Ibland har jag hört talas om dem som ger tillgång till data för forskningsändamål. Jag tror inte att de täcker hela USA, och de tittar bara på CRE över en viss dollarstorlek (något som $5,000)
gratis alternativ: CraigslistScrape craigslist.org för kontorsbyggnadslistor. URL: erna är ganska lätta att generera för skrotning; till exempel kan jag ladda ner de första 100 kontorsutrymmena som listas i New York på URL http://newyork.craigslist.org/search/off
Om du lägger till ”?s=100 ” till slutet av den webbadressen (dvs ”http://newyork.craigslist.org/search/off?s=100″), du får listor 100-199 av 2500. Genom att stegvis ändra ” off?s = x” Del, du kan få alla 2500.naturligtvis kommer c-listor i genomsnitt att vara mindre egenskaper, men jag slår vad om att täckningen är ganska bra och bias kommer att vara konsekvent över geografiska områden.
Uppdatering: skrapa alla Bas-URL: er från sidan om
Om du använder R, här är ett sätt att använda rvest() för att skrapa alla Bas-URL: er från klistan om sidan:
library(rvest)url <- "http://www.craigslist.org/about/sites"aboutclist <- read_html(url)aboutclist %>% html_nodes(".colmask:nth-child(4) a") %>% html_attr("href")
returnerar en lista med URL: er som:
"//auburn.craigslist.org/" "//bham.craigslist.org/" "//dothan.craigslist.org/" "//shoals.craigslist.org/" "//gadsden.craigslist.org/" "//huntsville.craigslist.org/" "//mobile.craigslist.org/" "//montgomery.craigslist.org/"