炒股太难?小编带你从零经验变为炒股大神,今天为各位分享《「天天基金官网」002251股票》,是否对你有帮助呢?
本文目录
东方基金管理有限责任公司(以下简称“本公司”)与上海天天基金销售有限公司(以下简称“天天基金”)协商一致,自2020年7月8日起,新增天天基金办理本公司旗下东方岳灵活配置混合型证券投资基金(基金代码:002545)的销售业务(仅限前端申购模式)。现将有关事项公告如下:
一、适用基金及业务范围
备注:后续产品上线及业务开通事宜本公司将另行公告。
二、重要提示
1.投资者欲了解上述基金的费率情况,请详见基金的《基金合同》、《招募说明书》等法律文件,以及本公司发布的*业务公告。
2.定期定额投资业务不额外收取手续费用,定期定额申购费率与相关基金的日常的申购费率相同。基金“暂停申购”期间,对于“暂停申购”前已开通定期定额投资业务的投资者,照常受理其投资业务。“暂停申购”前未开通定期定额投资业务的投资者,暂停受理其定期定额开户和投资业务,但如遇特殊情况以本公司公告为准。
3. 基金转换是指投资者可将其持有的本公司旗下某只开放式基金的全部或部分基金份额转换为本公司管理的另一只开放式基金份额的交易行为。上述基金列表中的基金,若同时采用前端收费和后端收费,则只开通前端收费模式下的转换业务。
4.投资者可以通过天天基金网站或移动端办理上述基金开户及销售业务。具体业务规则及业务办理流程以天天基金的安排和规定为准。
三、投资者可通过以下途径咨询有关详情
1.上海天天基金销售有限公司
客服电话:95021
网址:www.1234567.com.cn
2.本公司客户服务中心电话:400-628-5888
网站:www.df5888.com或www.orient-fund.com
风险提示:
基金管理人承诺以诚实信用、勤勉尽责的原则管理和运用基金资产,但不保证基金一定盈利,也不保证*收益。基金管理人管理的基金业绩不构成对其他基金业绩表现的保证。基金管理人提醒投资人遵循基金投资“买者自负”的原则,应认真阅读《基金合同》、《招募说明书》等基金法律文件,全面认识产品风险收益特征和产品特征,充分考虑自身的风险承受能力,理性判断市场,在对申购基金的意愿、时机、数量等投资行为做出独立、谨慎决策后,基金运营状况与基金净值变化引致的投资风险,由投资者自行负担。
特此公告。
东方基金管理有限责任公司
二二年七月七日
智通财经APP讯,步步高(002251.SZ)公告,截至公告日,公司的回购股份(用途为用于维护公司价值及股东权益所必需的股份1257.8488万股,占公司总股本的1.4560%)可对外出售。
本文源自智通财经网
根据华夏基金管理有限公司(以下简称“本公司”)与上海天天基金销售有限公司(以下简称“天天基金”)签署的代销协议,自2019年1月3日起,本公司旗下部分开放式基金在天天基金开通申购、赎回、转换、定期定额申购业务。具体情况如下:
一、基金明细
■
若上述基金暂停办理对应业务或对其进行限制的,请遵照相关公告执行。当上述基金恢复办理正常对应业务时,投资者可在天天基金办理其对应业务。投资者办理相关业务的数额限制、具体流程、规则以及投资者需要提交的文件等信息,请遵循上述基金基金合同、招募说明书及其更新、本公司发布的相关公告及天天基金的有关规定。天天基金的业务办理状况请遵循其相关规定。
二、咨询渠道
(一)天天基金客户服务电话:400-181-8188;
天天基金网站:www.1234567.com.cn;
(二)本公司客户服务电话:400-818-6666;
本公司网站:www.ChinaAMC.com。
本公司旗下开放式基金的代销机构可通过本公司网站刊登的《华夏基金管理有限公司旗下开放式基金代销机构一览表》进行查询,销售机构办理本公司旗下开放式基金定期定额申购业务情况的信息可通过本公司网站刊登的《华夏基金管理有限公司旗下开放式基金定期定额开通状况一览表》进行查询。
特此公告
华夏基金管理有限公司
二〇一九年一月三日
目的
通过爬取基金持仓信息,我们可以了解基金的资金流向,说白了,就是知道大型基金公司都买了什么股票,买了多少。也可以跟踪一些知名的基金,看看他们都买了什么股票,从而跟买或者不买,估值便宜的股票,又有很多基金入场,很可能这家公司大家都非常看好,未来业绩很可能增长,可能是一次比较好的投资机会;而有些股票,估值已经很高了,里边还有很多的基金公司,这就需要注意了,很可能基本面发生一点点恶化,或者达不到预期,基金公司可能就会大幅的抛售,导致股价大跌。
本文分上、下两个部分。
第一部分,讲解如何爬取数据并存储到mysql数据库。
第二部分,对爬取出来的数据进行可视化分析。
1分析要爬取的网页数据
需要获取所有的基金代码
http://fund.eastmoney.com/allfund.html
获取基金里的前10大持仓数据
2确定获取数据页面后开始写代码
导入包
"""爬取天天基金持仓数据"""from bs4 import BeautifulSoupimport timeimport pandas as pdimport requestsimport datetimefrom selenium import webdriverfrom sqlalchemy import create_enginefrom lxml import etree#连接数据库engine = create_engine('mysql+pymysql://root:123456@localhost/tushare_db?charset=utf8mb4')#请求头headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36'}
插入数据库
def insert_sql(data): # 使用try...except..continue避免出现错误,运行崩溃 try: #jjcc_data 数据库表名 data.to_sql("jjcc_data", engine,if_exists='append', index=False) except Exception as e: print(e)
解析详细页面,获取前10大持仓股
因为网页抓取后需要渲染才能获得数据所以使用selenium包的webdriver。
def get_info(url): option = webdriver.ChromeOptions() option.add_argument('headless') option.add_argument('no-sandbox') option.add_argument('disable-dev-shm-usage') driver = webdriver.Chrome('/usr/local/bin/chromedriver',options=option) driver.maximize_window() driver.get(url) driver.implicitly_wait(5) day = datetime.date.today() today = '%s' % day with open('test.html', 'w', encoding='utf-8') as f: f.write(driver.page_source) time.sleep(1) file = open('test.html', 'r', encoding='utf-8') soup = BeautifulSoup(file, 'lxml') driver.quit() try: fund = soup.select('#bodydiv > div > div > div.basic-new > div.bs_jz > div.col-left > h4 > a')[0].get_text() scale = soup.select('#bodydiv > div > div.r_cont > div.basic-new > div.bs_gl > p > label > span')[2].get_text().strip().split()[0] table = soup.select('#cctable > div > div > table') trs = table[0].select('tbody > tr') for tr in trs: code = tr.select('td > a')[0].get_text() name = tr.select('td > a')[1].get_text() price = tr.select('td > span')[0].get_text() try: round(float(price), 2) except ValueError: price = 0 num = tr.select('td.tor')[3].get_text() market = float(num.replace(',', '')) * float(price) data = { 'crawl_date': today, 'code': code, 'fund': fund.split(' (')[0], 'scale': scale, 'name': name, 'price': round(float(price), 2), 'num': round(float(num.replace(',', '')), 2), 'market_value': round(market, 2) } data=pd.DataFrame([data]) insert_sql(data) except IndexError: info = { 'url': url } print(info)
获取所有的基金代码,循环调用get_info
def get_code(url): html = requests.get(url, headers=headers) html.encoding = 'gbk' document = etree.HTML(html.text) info = document.xpath('// *[ @ id = "code_content"] / div / ul / li / div / a[1] /text()') i = 0 for fund in info: str = fund.split(')')[0] code = str.split('(')[1] url = 'http://fundf10.eastmoney.com/ccmx_%s.html' % code get_info(url)if __name__ == "__main__": found_url = 'http://fund.eastmoney.com/allfund.html' get_code(found_url)
好了,4段简单的代码就可以讲天天基金网里的数据都爬取到数据库里了。
下次给大家讲解如何用爬到的数据做可视化分析。
谢谢关注