找一款可以批量提取Excel数据的软件
打开新建的那个表格,即testing,然后在A1中输入“=”号,接着打开week 1.xlsx,鼠标点击week 1.xlsx的A1,回车即可。
在testing的A2,也是用上边的步骤即可完成,只不过week 1.xlsx变成week 2.xlsx。
这个是手动的,但过程比较简单,不用手动输入太多数据。
有什么软件可以提取网站里所有数据文件啊???
重新安装后,需要附加数据库: 企业管理器 --右键 "数据库 " --所有任务 --附加数据库 --选择你的.mdf文件名 --确定 --如果提示没有.ldf文件,是否创建,选择 "是 " 查询分析器中的方法: --有数据文件及日志文件的情况 sp_attach_db '数据库名 ' , '数据文件名(*.mdf注意要带目录) ' --后面可以是用,分隔的该数据库的多个数据文件 , '日志文件名(*.ldf注意要带目录) ' --后面可以是用,分隔的该数据库的多个日志文件 --如果只有数据文件的情况 sp_attach_single_file_db '数据库名 ' , '数据文件名(*.mdf注意要带目录) ' --后面可以是用,分隔的该数据库的多个数据文件
从图片里抓取数字的软件
你说的是OCR识别软件吧。
如果说只是数字和字母还行。
最好是印刷体的。
这方面我感觉比较好的是“尚书七号”,“请华紫光”。
至于google OCR,听说不错,但没用过,不表评论。
楼主可以自己选择。
下载地址网上百度一大堆,都是免费的。
(不过所有软件都不是100%识别,最好人工校验一下或者用两个OCR识别,共同的部分出错的可能性不大,主要找不同的就基本可以了。
)希望这些对楼主有所帮助。
如何编程从免费股票软件中提取实时数据?
自己写程序的话,一种方法是从已提供的信息源,例如webservice获取数据。
还有种办法就是去连接提供即时信息的网页硬解析。
代码举例如下:Created on Thu Jul 23 09:17:27 2015@author: jet"""DAY_PRICE_COLS = ['date', 'open', 'high', 'close', 'low', 'volume', 'chg', '%chg', 'ma5', 'ma10', 'ma20', 'vma5', 'vma10', 'vma20', 'turnover']DAY_PRICE_URL = '%sapi.finance.%s/%s/?code=%s&type=last'INDEX_KEY = ['SH', 'SZ', 'HS300', 'SZ50', 'GEB', 'SMEB']INDEX_LIST = {'SH': 'sh000001', 'SZ': 'sz399001', 'HS300': 'sz399300','SZ50': 'sh000016', 'GEB': 'sz399006', 'SMEB': 'sz399005'}INDEX_DAY_PRICE_COLS= ['date', 'open', 'high', 'close', 'low', 'volume','chg', '%chg', 'ma5', 'ma10', 'ma20','vma5', 'vma10', 'vma20'] K_TYPE_KEY = ['D', 'W', 'M']K_TYPE_MIN_KEY = ['5', '15', '30', '60']K_TYPE = {'D': 'akdaily', 'W': 'akweekly', 'M': 'akmonthly'}MIN_PRICE_URL = '%sapi.finance.%s/akmin?scode=%s&type=%s' PAGE_TYPE = {'http': 'http://', 'ftp': 'ftp://'}PAGE_DOMAIN = {'sina': 'sina.com.cn', 'ifeng': 'ifeng.com'}URL_ERROR_MSG = '获取失败,请检查网络状态,或者API端口URL已经不匹配!'get_hist_data.py# -*- coding: utf-8 -*-"""Created on Thu Jul 23 09:15:40 2015@author: jet"""import const as ctimport pandas as pdimport jsonfrom urllib2 import urlopen,Requestdef get_hist_data(code = None, start = None, end = None, ktype = 'D'):"""功能:获取个股历史交易数据--------输入:--------code:string股票代码 比如:601989start:string开始日期 格式:YYYY-MM-DD 为空时取到API所提供的最早日期数据end:string结束日期 格式:YYYY-MM-DD 为空时取到最近一个交易日数据ktype:string(default=D, 函数内部自动统一为大写)数据类型 D=日K线,W=周K线,M=月K线,5=5分钟,15=15分钟30=30分钟,60=60分钟 输出:--------DataFramedate 日期open 开盘价high 最高价close 收盘价low 最低价chg 涨跌额 p_chg 涨跌幅ma5 5日均价ma10 10日均价ma20 20日均价vma5 5日均量vma10 10日均量vma20 20日均量turnover换手率(指数无此项)""" code = code_to_APIcode(code.upper())ktype = ktype.upper()url = '' url = get_url(ktype, code) print(url)js = json.loads(ping_API(url))cols = []if len(js['record'][0]) == 14:cols = ct.INDEX_DAY_PRICE_COLSelse:cols = ct.DAY_PRICE_COLSdf = pd.DataFrame(js['record'], columns=cols)if ktype in ct.K_TYPE_KEY:df = df.applymap(lambda x:x.replace(u',', u''))for col in cols[1:]:df[col]=df[col].astype(float)if start is not None:df = df [df.date >= start]if end is not None:df = df[df.date <= end]df = df.set_index('date')return df def code_to_APIcode(code):"""功能:验证输入的股票代码是否正确,若正确则返回API对应使用的股票代码"""print(code)if code in ct.INDEX_KEY:return ct.INDEX_LIST[code]else:if len(code) != 6:raise IOError('code input error!')else:return 'sh%s'%code if code[:1] in ['5', '6'] else 'sz%s'%codedef get_url(ktype, code):"""功能:验证输入的K线类型是否正确,若正确则返回url""" if ktype in ct.K_TYPE_KEY:url = ct.DAY_PRICE_URL % (ct.PAGE_TYPE['http'], ct.PAGE_DOMAIN['ifeng'],ct.K_TYPE[ktype], code)return urlelif ktype in ct.K_TYPE_MIN_KEY:url = ct.MIN_PRICE_URL % (ct.PAGE_TYPE['http'], ct.PAGE_DOMAIN['ifeng'],code, ktype)return urlelse:raise IOError('ktype input error!')def ping_API(url):"""功能:向API发送数据请求,若链接正常返回数据"""text = ''try:req = Request(url)text = urlopen(req,timeout=10).read() if len(text) < 15:raise IOError('no data!') except Exception as e:print(e)else:return text#测试入口print(get_hist_data('601989','2015-07-11','2015-07-22'))
找一款可以批量提取Excel数据的软件
展开全部 打开新建的那个表格,即testing,然后在A1中输入“=”号,接着打开week 1.xlsx,鼠标点击week 1.xlsx的A1,回车即可。
在testing的A2,也是用上边的步骤即可完成,只不过week 1.xlsx变成week 2.xlsx。
这个是手动的,但过程比较简单,不用手动输入太多数据。
有什么软件可以实时的抓取网站信息
可以用ForeSpider数据采集系统实现,是前嗅大数据公司的一款可视化的通用爬虫软件。
你配置好模板之后,可以设定每天几点定时采集,或者间隔多长时间定时采集,而且可以设定不重采相同数据。
就可以实现实时的抓取网站信息了。
搜一下官网,上面有免费版可以下载。
有没有一款类似网络爬虫的数据抓取工具,可以抓取windows应用程序...
ForeSpider数据采集系统(前嗅的爬虫软件)具有强大的关键词抓取能力,可视化的操作界面,普通台式机的抓取速度可以达到500万条数据/每天。
没有破解版的,但是官网有免费版的下载,免费版不限制功能,只是对每天的抓取条数有限制。
你可以搜一下ForeSpider数据采集系统。