Где я могу скачать историческую рыночную капитализацию и ежедневные данные об обороте акций?

11

Существует множество источников, которые предоставляют исторические данные о запасах, но они предоставляют только поля OHLC вместе с объемом и скорректированным закрытием. Также несколько источников, которые я нашел, предоставляют наборы рыночной капитализации, но они ограничены акциями США. Yahoo Finance предоставляет эти данные онлайн, но нет возможности загрузить их (или ни одной из них, о которой я знаю).

  • Где я могу скачать эти данные для акций, принадлежащих различным ведущим биржам в разных странах, используя их тиккер?
  • Есть ли способ скачать его через Yahoo Finance или Google Finance?

Мне нужны данные за последнее десятилетие или около того и, следовательно, нужен какой-то скрипт или API, который бы это делал.

tejaskhot
источник

Ответы:

3

Что касается сбора данных, вы можете проверить Quandl ( если вам интересно , есть руководство по его использованию с R на DataCamp ).

Кроме того, Асуот Дамодаран в сайт содержит много полезных данных. Хотя они не обновляются так часто, они все же могут быть полезны, особенно в качестве эталона для сравнения вашего собственного вывода (из сценариев, которые вам неизбежно нужно будет написать для вычисления необходимых метрик).

И, опять же, Quant SE , вероятно, лучшее место для поиска ...

Стив С
источник
1

На этом сайте перечислены исторические рыночные капитализации и значения предприятий для компаний S & P 100 и NASDAQ-100 за последние 10 лет. Вы можете экспортировать наборы данных в Excel.

http://marketcapitalizations.com/historical-data/historical-data-categories/valuations/

Вы также можете попытаться связаться с ними для получения данных в течение более длительного периода времени.

Маркус Торрез
источник
Кстати, аффилированы ли вы с этим сайтом?
Шон Оуэн
1

Я бы сделал это так.

import requests
from bs4 import BeautifulSoup

base_url = 'https://finviz.com/screener.ashx?v=152&s=ta_topgainers&o=price&c=1,2,6,7,25,65,67'
html = requests.get(base_url)
soup = BeautifulSoup(html.content, "html.parser")
main_div = soup.find('div', attrs = {'id':'screener-content'})

light_rows = main_div.find_all('tr', class_="table-light-row-cp")
dark_rows = main_div.find_all('tr', class_="table-dark-row-cp")

data = []
for rows_set in (light_rows, dark_rows):
    for row in rows_set:
        row_data = []
        for cell in row.find_all('td'):
            val = cell.a.get_text()
            row_data.append(val)
        data.append(row_data)

#   sort rows to maintain original order
data.sort(key=lambda x: int(x[0]))

import pandas
pandas.DataFrame(data).to_csv("AAA.csv", header=False)
ASH
источник