Category Archives: 打工日记

云从科技AI平台中心招聘(北京、苏州)

高级Java工程师

工作职责
    1. 从0到1全程参与数据治理产品研发落地;
    2. 负责数据的采集、清洗、预处理、存储、分析挖掘和数据可视化以及架构设计、开发、部署、自动化运维等工作的具体实施;
    3. 设计应用系统架构,出具应用实施解决方案,包括:系统架构设计、接口规范制定、技术文档编写、可用性与稳定性等。

任职要求
    1. 大学本科学历,3年以上Java研发经验,精通JAVA,熟悉Python、Linux Shell;
    2. 熟练使用SpringMVC/SpringBoot/SpringCloud、Mybatis框架;
    3. 熟练使用Mysql/Oracle数据库,了解数据库优化、SQL优化、查询性能等优化;精通数据库架构Sharding、高可用性、主从复制等技术,有相关的性能优化经验;
    4. 熟练使用Elasticsearch、MongoDB、Redis等nosql数据库;
    5. 具备2年Java开发经验+1年系统架构设计经验;
    6. 具备大规模系统设计经验、分布式存储/计算经验、高负载/高并发/高可用架构和调优经验经验;
    7. 熟悉分布式存储、搜索、异步框架、集群与负载均衡,消息中间件等技术;
    8. 有优秀的解决问题能力,有很强的责任心,有良好的沟通能力。

加分项
    1. 有数据仓库开发经验;
    2. 具备金融系统研发、架构经验;
    3. 有持续集成和结对编程等工程实践经验。

高级大数据工程师

工作职责
    1. 从0到1,全程参与数据治理产品研发落地;
    2. 负责数据的采集、清洗、预处理、存储、分析挖掘和数据可视化以及架构设计、开发、部署、自动化运维等工作的具体实施;
    3. 设计应用系统的规划及架构,出具应用实施解决方案,包括:系统架构设计、接口规范制定、技术文档编写、可用性与稳定性等。

任职要求
   1. 大学本科学历,2年以上Java研发经验,精通JAVA,熟悉Python、Linux Shell;3年Hadoop/Spark应用研发实战经验;
    2. 具备架构师意识和大规模分布式系统设计经验、高负载/高并发/高可用架构经验;
    4. 熟练使用Hive、Spark等大数据技术,并有相关的性能优化经验;
    5. 熟练使用Elasticsearch、MongoDB、HBase等nosql数据库;
    6. 熟练使用Kafka等分布式消息框架;
    7. 熟练使用DataX、Canal等工具;
    8. 具备大数据平台运维能力、问题排查解决能力、平台优化能力;
    9. 有优秀的解决问题能力,有很强的责任心,有良好的沟通能力。

加分项
    1. 有大型数据仓库开发经验;
    2. 有持续集成和结对编程等工程实践经验;
    3. 具备大数据金融系统或是反欺诈系统研发经验。

前端工程师

工作职责
     1. 负责数据治理产品的设计与实施;
     2. Web前沿技术的研究和新技术的调研。
任职要求
     1. 熟悉各种Web前端技术(HTML/CSS/Javascript等),熟练掌握跨浏览器、跨终端的开发;
     2. 熟悉W3C标准,对可用性、可访问性、http协议相关知识,有深入的了解和实践经验;
     3. 精通至少一个MVVM框架(React、Angualr、Vue)等,理解组件化开发和框架底层机制;
     4. 熟悉webpack,gulp 等自动化构建工具,拥有丰富的实际配置经验;
     5. 熟练使用SVN,git版本管理工具,能根据实际需求进行代码仓库的维护管理;
     6. 有优秀的解决问题能力,有很强的责任心,有良好的沟通能力。
加分项
     1. 了解任何一种后台语言;
     2. 有持续集成和结对编程等工程实践经验;
     3. 熟悉自动化测试工具(如Selenium)。

资深测试工程师

工作职责
    1. 负责数据治理产品的测试相关工作,保障项目交付质量;
    2. 制定测试计划,编写用例,监控项目实施,撰写测试报告;
    3. 根据产品特点设计自动化测试解决方案。
任职要求
    1. 计算机相关专业本科及以上学历,6年以上的工作经验,3年以上测试开发经验;
    2. 优秀的的开发能力,能用Java/Python/Shell进行快速开发;
    3. 熟悉软件测试技术、流程、理论、方法,熟悉常见测试管理系统,理解主流自动化测试工具、框架(如selenium、jmeter、RF等);
    4. 很强的分析问题能力,能坚持原则,有项目管理概念,有产品概念。
加分项
    1. 有大数据、云计算、机器学习算法的测试经验;
    2. 有企业级私有化软件测试经验。

数据产品经理

工作职责
    1. 负责数据治理产品的市场调研、需求分析,完成需求文档、原型和API设计;
    2. 产品的生命周期管理,在研发、开发、发布和迭代过程中负责沟通;
    3. 负责用户体验优化。
任职要求
    1. 本科或以上学历;
    2. 熟练掌握各种产品原型工具和PRD文档编写;
    3. 较强的逻辑思维能力,充分理解商业目标,对市场、行业有自己的调研方法;
    4. 善于换位思考,善于跟客户沟通,较强的场景抽象能力;
    5. 有极强的跨团队协作能力和执行力,能承受较大的工作压力。
加分项
    1. 有企业级软件产品设计经验;
    2. 有云计算、大数据和人工智能产品设计经验;
    3. 有中台研发团队工作经验。

[得到大学课程作业] 利用“教育家思维模型”管理长期目标

  前一阶段CEO对我所在部门进行了调整,剥离了短期业务,剩下的人被明确赋予了一个长期目标。这个目标实现难度很大,但战略上对公司非常重要。

  我很同意“教育家模型”这一课的一句话:“管理长期任务的挑战是,时间会稀释你的目标感。”此前我们部门的目标感的确有点模糊。某种意义上,这次组织调整,就是公司高层在用最直接的行动点一下。因此组织调整后,重点如下:

1. 把精力放在统一目标上:

  通过All hands和头脑风暴等形式,统一团队共识,让每个人都弄明白这个部门的使命和路线图。我们并不是要求大家像阅兵方阵一样机械统一,相反,希望一线同学根据具体情况作出更高效合理的决策,只要每个人清楚目标和底线在哪里,不南辕北辙。

  进一步也花了很多时间和其他部门沟通。总之,把目标昭告天下,争取所有人的知晓和配合。

2. 用持续行动维护信用

  我们定下规矩,每两周,副总裁和总监们都要深度讨论和复盘一次。有时候会上吵的很凶,但最终,做了不少“艰难但正确”的决策。

  例如,决定向另一个团队让出一块成熟而容易出绩效的业务。因为这个产品与我们的战略目标关系不大,应该把人手撤回来,保证核心战场的“范弗里特弹药量”。

  这个行动清楚告诉所有人:“我们是认真的”。一线同学的注意力变得集中;与“礼让跑道”的兄弟部门之间,边界更清楚,信任感更强,他们经常主动为我们提供各种关键的火力支援。

  总之,从我的实际体会来看。拥有一个长期目标,虽然一时会面临更复杂困难的局面,但处理好的话,这个目标本身就会变成一面旗帜,让各种人和资源向你聚拢。(具体而言,应该做到“耐心沟通统一目标”、“知行合一维护信用”这两点。)像滚雪球一样,越往后,自己、团队和友军越能获得更多成就感。

[得到大学课程作业] 利用“指挥家思维模型”推动多部门复杂协作

  这个季度,由我的部门牵头推动一个重要项目。该项目对公司具有的战略意义,但是难度又很大,尤其是复杂度很高,涉及到7个不同的部门(算法研究院、1个数据中台团队、1个硬件中台团队、1个系统中台团队、3个前台行业部)。所有部门都有各自不同的打法,例如:

  • 对硬件团队而言,开一次模上百万,换个供应商一般12个月才能保证稳定。
  • 然而,对前台行业部来说,紧贴客户订单quick and dirty,因为每半年要根据业绩末位淘汰。

  我是怎么解决的呢?借鉴“指挥家思维模型”,在立项时,通过和各方的反复沟通,统一了重点:

  1. 明确业务节奏和进度里程碑。确保业务节拍不同的团队,互相能够产生节奏配合,例如硬件产品推出前大约4个月,市场团队已经开始上一代产品的回访和新技术布道。

  2. 规定各个层次产品和业务的关键产出。划出下限,确定最坏情况下也必须限时拿下的山头。同时提前准备好风险预案。

  3. 安排内部“吃自己狗粮”团队和Beta天使客户。每一版新产品刚推出,都会在特定的内外部用户先期投入试用,听取反馈,验证产品可行性。通过Alpha 和Beta测试,建立标杆项目,总结最佳实践手册以后,再大范围推广。

  总之,通过抓住“同步节奏”、“划定下限”、“先期排练”这三件事,推动复杂的战略项目逐步落地。

皮亚杰的《结构主义》和自我意识基因

  我很少看哲学书。读皮亚杰的这本《结构主义》,大脑动不动就过热死机,放下,过一段再读,又死机……一直折腾了三个星期。要不是这期间有10天在深圳广州出差,累的时候换脑子,这本书估计读不完。

  简单解释的话,结构主义者认为,事物整体并不等于个体元素简单求和。元素之间的关系,也就是“结构”,甚至比具体的某个元素还重要。举个例子,一首曲子,如果提高8度,虽然所有音符都换掉了,但我们还是能识别出这是同一首音乐。因为曲子内部的“结构”,也就是旋律,没有变化。

  皮亚杰对“结构”做了专业的逻辑形式定义。如果将这种抽象的定义映射到数学上,恰恰就是我们计算机专业熟悉的离散数学的那一套体系:群、环、域。而函数映射,就是这些代数系统的“结构”。在物理学、生物学、社会学、语言学等领域,《结构主义》都有专门章节进行论述。

  好了,概述讲完了,剩下的细节,感兴趣的同学自己去读书烧脑吧。

  八卦了一下,皮亚杰博士学位读的是生物学,后来跑去研究儿童心理学。人并不是生下来就具有完整智能。成人的心理状态,实际上是青少年时代连续不断演化的结果。皮亚杰描述10岁之前的孩子,心理演化大概分为三个阶段:

  第一个阶段,注意到因果,训练自己的条件反射,例如很多婴儿用手挡住阳光,再拿开,再挡住,再拿开……这种行为和结果之间的联系,让小孩子很兴奋,不断重复。

  第二个阶段,学习语言,了解世界表面上的浅层联系,这个阶段的孩子,喜欢模仿周围所有人的语言,并逐渐学会自己组织表达。但是他们只能理解实体和名词之间的映射。

  第三个阶段,开始有了抽象的思维,开始有逻辑,开始学习数字……

  需要注意的是,心理状态并不是静态的,到某一天突然跳到下一个阶段去。而是持续不断的进行内部映射和更新,进而重构整个操作系统。这里说的“映射”,皮亚杰又称为“运算”,其实和前面提到的数学上的“函数”概念几乎完全一样,就是“结构”的一种具体体现。

  皮亚杰认为,儿童心理演化之所以有其必然方向,一定是因为某些客观的物质基础造成。限于当时的科技水平,这个物质基础还不清楚。

  然后,好玩的事情就来了,前两天我们和一位遗传医学专家在北京机场T3航站楼吃饭,她提到一件有意思的事情。

  达尔文曾经拿了一面镜子给红毛猩猩看,红毛猩猩在发现周围并没有第二只红毛猩猩之后,就坐到镜子前做起了鬼脸来。黑猩猩也一样,心理学家在它的眉毛和耳朵上做了记号,黑猩猩发现镜子里的影子被涂花了脸,很自然地用手去摸自己的眉毛和耳朵。人类儿童在12个月到24个月开始有自我意识。研究表明,类人猿、大象、海豚、猪还有喜鹊也拥有镜子前的自我意识。但是,其它大多数动物都不能识别镜子里的自己,会对镜子里的影子表现出很高的攻击性。

  中国的生物学家对所有这些动物进行基因测序,对比有自我意识和没有自我意识的两组动物之间的基因差异。他们发现了一个基因位点。恰好这个基因位点和一种罕见的疾病有关,患了这种疾病的人能感受到刀子割手的疼痛,但是在平常生活中,总是不慎弄伤自己,仔细观察发现,他们在刀子快割到自己的手,或者火焰快烧到身体的时候,并不懂得躲闪。

  所以这个基因位点和它所在的功能通路,有可能正是自我意识的物理基础。

又来上海

  2016第三届科学数据大会在上海复旦大学举办。8月25日下午我会在高性能计算与大数据分会场做一个分享,欢迎大家来听。明天我会去听精准医疗分会场的报告。希望认识更多朋友。最关键的,希望收到简历和人才推荐。

  最近开始疲惫和焦虑。有一天早起,居然有溜号不上班的念头。对我这种跳着踢踏舞上班的人来说,这很少见。很长时间没休假,看来需要充充电了。

  到上海的高铁,买了一本海莲·汉芙的≪查令十字街84号≫,几乎不喘气读完。真棒!同时发现自己彻底放松下来了。然后突然特别困,眼皮都抬不起来,睡得不省人事,直到列车员查票。发社交网络称赞,才被科普,火车站书店之所以会放一本小众的文艺作品,是因为最近有一部畅销电影提到了它。

  刚到上海,收到邮件,有个客户申请GeneDock的邀请码,看地址离我很近,于是去拜访。见完客户,又发现离贝壳社上海的办公室很近,就跑去玩。遇到了以前就认识的朋友,才知道他找到了合适的合伙人,获得了贝壳社的投资,赞!然后又遇到了另外一个创业者,基因行业最著名的猎头。有些话题只有创业的人才能真正互相理解。(聊了好久,我差点耽误了晚上的视频面试)。

谈谈ODPS商业化(六):ODPS小伙伴SLS和DPC

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

  在典型的大数据解决方案里,除了以ODPS这样的离线分布式计算引擎为核心,周边还需要日志收集、开发IDE、工作流调度、数据质量监控、BI报表等等一系列配套机制。因此ODPS用户往往还会对SLS和DPC等服务感兴趣。

  先说SLS(简单日志服务),这是阿里云提供的针对日志收集、存储、查询和分析的云服务。用户只需简单地配置日志产生的位置和格式等信息就能实时查询海量日志。用户也可以把SLS日志归档保存到ODPS中做更多数据分析。

  简单来说,SLS提供一个名为Logtail的客户端,把它部署到需要监控的机器上(阿里云云主机默认安装),配置好以后,Logtail会定时把本地的日志文件(例如Web Sever的access_log或DB的bin-log)上传到后端的RESTful API,然后用户就可以在后台利用SLS对日志进行简单的实时过滤和处理。CNZZ就基于SLS进行全网日志数据的收集。更多SLS细节请参考官方主页

  SLS在ODPS里面有一个project名叫sls_log_archive,用户打开推送功能后,SLS会定时把数据推到特定名字的表里(Project+Category),用户可以再执行一个简单的SQL把数据拖到自己的Project里。可以参考这篇用户文档。然后用户就可以写SQL把数据导入自己的Project,下面是个简单的SQL例子,第一句是在自己project创建一个表,第二句是创建相应时间段的partition,第三句是导入数据

  CREATE TABLE mylog LIKE sls_log_archive.XXXXXXX;

  ALTER TABLE mylog ADD PARTITION(__partition_time__=’2014_06_24_12_00′);

  INSERT OVERWRITE TABLE mylog PARTITION (__partition_time__=’2014_06_24_12_00′)
SELECT __source__, __time__, __topic__, _extract_others_ FROM sls_log_archive.XXXXXXX where
__partition_time__=’2014_06_24_12_00′;

  日志数据导入ODPS,就可以利用它的强大能力深入分析SLS收集上来的日志。这里有一篇BLOG很值得推荐

  接下来介绍DPC,它是基于ODPS的DW/BI的工具解决方案。DPC提供全链路的易于上手的数据处理工具,主要提供如下四种能力:
  1.把各种数据源的数据(例如RDS)拖拽到ODPS
  2.提供IDE开发界面和SQL代码管理能力
  3.任务调度功能
  4.通过拖拽和可视化的方式进行数据分析,并通过BI报表进行数据可视化展现。
  有了DPC,可以大大降低ODPS用户在数据仓库和商业智能项目上的实施成本,加快实施进度。天弘基金、高德地图的数据团队基于DPC完成他们的大数据处理需求。 更多DPC细节可以参考官方主页

  有了ODPS+SLS+DPC小伙伴,就可以支持典型的大数据工作场景了:日志收集、数据开发和定时生产。还有更多ODPS小伙伴正在开放的路上,例如流计算和实时查询,请大家关注阿里云网站。

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

谈谈ODPS商业化(四):2014阿里巴巴大数据竞赛

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

  几天前2014阿里巴巴大数据竞赛刚刚落下帷幕,第11名的F1分数、准确率和召回率是6.10%、6.28%和5.93%。前10名的成绩还未公布,他们会被邀请到阿里巴巴公司来,有机会和内部团队一起参与双11。选手们闲下来,开始在群里爆特征、开玩笑、交换联系方式。

  这次海内外共有7276支队报名。比赛分为多个阶段:S1是线下海选,从S2开始上ODPS,每月底淘汰末位的100支队,直到7月31日尘埃落定。选手们需要像阿里数据分析师一样工作,完全依赖云端的ODPS平台上的SQL、Mapreduce和Xlib/Xlab算法工具处理大数据,E2E完成建模全过程:划分训练集和测试集,选择模型,抽取特征,处理过拟合,采样正负样本(向上采样、向下采样),调参,特征和目标值的处理,模型融合……几个月下来,有不少同学分享了心得和感悟:

  来着如临高山,往者以观逝水
  成也solo,败也solo
  事非经过不知难
  大数据竞赛所历所思
  点说那些年参加过的竞赛
  STO_OTZ队的比赛流水账以及心得感悟
  那些在坑里翻滚的日子
  一场比赛、一组数据、一个梦想
  ODPS SQL 构建离线评估
  超级啰嗦版ODPS MapReduce入门
  第一季总结:LR入门
  阿里大数据竞赛season1总结

  有次看到阿里云后台的客服工单:“想实现逻辑回归分类算法,使用随机梯度下降算法来优化参数,怎么在大规模分布式系统下实现?你们的xlib已经有了,我就是想问问^_^”。阿里云的售后支持mm真心累啊。发了一条微博说:下次再有这种调戏就回答“想知道吗,给我们投简历吧。”结果第二天就有参赛选手分享了这篇博客: 在MapReduce中实现随机梯度下降法(这篇文章对算法实现原理写得很清楚了,但用Mapreduce编程模型实现迭代类算法性能是很弱的,大多数人还是直接用Xlib实现好了的逻辑回归、随机森林、GBRT等算法)。

  还有好玩的,有一位在台湾上学的参赛者利用S1的参赛队的排名信息深入分析了一番,写了这个:阿里大数据 – 中国好大学

  比赛筹备一年多,很辛苦,很成功,恭喜得福和一婷。对于即将毕业的学生来说,关注并参与这次比赛,能深入体会工业界数据分析师的工作场景。另外,除了比赛内容本身,我想提醒读者注意天池平台。数据交换的业务模式已经开始萌芽。

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

谈谈ODPS商业化(三):阿里金融的业务

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

  阿里金融是ODPS第一个用户,业务发展很快,备受关注。网上能找到很多报道,例如以前一篇BLOG引用过《 一笔B2B贷款的旅行》。近期又披露了A-GDS系统和水文模型,大家可以自己搜索(作为参与者,终于能把这些曾经保密的词写在公开渠道,真爽)。通过这些已经能大体了解到阿里金融如何利用海量数据挖掘信息,并据此确定信用风险和额度并发放贷款。所以这篇BLOG会短一些。

  阿里金融团队里,程序员和数据分析师占绝大多数。这些同学都在ODPS上忙什么?

  金融的核心是对风险进行量化评估。举个例子,发信用卡给某人,必须先拿到对方的信息,根据各种指标进行打分,估算出这个人赖账的概率,评估期望收益减去成本之后的盈利空间,并确定授信额度。通过特征计算信用额度是一门专业的金融建模技术,称为“信用评分卡”。大家可以到豆瓣上搜一些经典教科书。“信用评分卡”一般是由一系列的特征选择、回归统计和评价算法组成。

  传统金融行业能获得一个人的信息是有限的,几页纸的表格资料就填写好了:生日、性别、教育、婚姻、城市、单位、职称、收入、财产、负债、健康……所以传统的信用评分卡模型,输入训练集的特征矩阵也就上百列。同样的方法拿到互联网企业来用,嗯,我们能收集你这个人的一切数据:用iPhone还是Android,接收包裹的地址是高档小区还是地下室,在天猫旗舰店买首饰和包包有多腐败……如果你是淘宝或B2B卖家,支付宝里赚到的每一笔现金流都可以反映你的还债能力,甚至会测评你对假设情景的掩饰和撒谎程度。于是信用评分卡模型就必须能处理好几百万列的特征矩阵。而且,疯狂的数据科学家们想到,每月、每周甚至每天的授信额度都应该动态调整,就像江河里的水位一样随季节涨落,例如双11之前,根据往年的数据预测,模型会自动给电商卖家逐步调高额度,而春节之前又降到最低(这也是“水文”模型名字的来历)。

  业务需求如此,海量数据必须要存,要过滤,要计算,要建模,包括调度和监控、授权和审计、数据质量控制、元数据管理等重要问题都要有解决方案。于是神说,要有ODPS,要有水文模型,要有A-GDS。

  阿里金融的生产流程都在晚上跑,是典型的数仓场景:把上游数据定时拖进来,ETL清洗整理后进入数据仓库,然后针对上层业务提供垂直的数据集市。每天离线作业完成之后,数据就会被灌入OTS和RDS这类在线服务,为日常业务提供支持。而在白天,分析师们使用SQL进行数据探查,写程序或调用统计机器学习的工具包进行数据挖掘和建模,并把开发测试好的模型发布到线上生产。

  阿里金融在ODPS上每天处理30PB数据,800亿个信息项,运算100多个数据模型。ODPS上的信用评分卡模型(以逻辑回归为核心的十几个算法组成的建模流程)一般会跑上百万维特征,上亿行样本的训练集。有了强大平台的支持,阿里金融就可以给没有资产可抵押的小微企业发放贷款,每一笔贷款成本是传统银行的1/1000,且坏账率非常低。

  写到结尾,我终于可以像购物节目里面的亢奋主持人一样说点煽情的:“ODPS可以120%的满足你的所有梦想,现在打开电脑,登陆www.aliyun.com,展开你的神奇大数据之旅吧!”

  顺便提一下,其他金融类业务也都在用ODPS了。余额宝前两天在微博上发了一组好玩的数据统计,“广东、山东、河南男人们的私房钱最多”。

  这篇BLOG是ODPS商业化一系列文章之一,更多请点击这里……

谈谈ODPS商业化(一)

  首先深深道歉,居然五个月没有发BLOG。这几个月是我近年来最辛苦,心理压力最大的一段经历。也直接导致很多生活习惯被打破,例如早睡,例如定期备份工作目录,例如定期修改登录密码,再如逛书店,也包括每周写一两篇博客。这些习惯现在正逐渐恢复。感谢回来的读者。

  很多人可能已经知道了,ODPS在7月上旬终于实现了一期商业化,部分功能结束邀请试用,全网开放,开始收费。大家可以访问阿里云官网开通ODPS服务,并下载用户手册和SDK客户端。除了阿里云以公有云的形式对外租用ODPS的存储和计算能力,还有两个渠道可以使用ODPS:御膳房,是阿里数据平台事业部推出的大数据解决方案,可以支撑淘宝天猫大买家和ISV利用阿里丰富的数据;天池,是阿里技术发展部的平台,主要针对高校和科研单位进行合作,目前正进入冲刺阶段的2014阿里大数据竞赛就是基于这个平台举办。

  阿里对ODPS做了很多宣传,网上看到不少讨论。如果要了解ODPS的方方面面,我认为下面对子楠和常亮的采访是比较好的资料:

  汤子楠:飞天、ODPS经历了许多血淋淋教训

  徐常亮:ODPS的愿景、技术实现与难点

  还有不少朋友在知乎上问与ODPS有关的问题,我们也都尽可能做了回答。

  尽管刚刚对外开放,已经看到大量的第三方用户上来,在ODPS上做各种各样有趣的大数据业务。尤其是各个领域的创业团队给我留下了深刻印象:金融保险、电商营销,运动手环,手机游戏,基因测序……

  接下来我会写一系列的博客,从个人观点谈一谈ODPS的产品和业务。计划谈的主题可能包括:

ODPS对外开放!

  ODPS刚刚上线成功,在阿里云官网对外开放!一期还仅仅开放Sql,很快会开放Mapreduce、Graph和Xlib等更多功能。公测阶段,用户还需要经过人工审核才能开通服务。

  加入阿里两年。经历了这么多,俺把这件事做成了。

  上个月AWS进中国反响很大,发了一条微博:“AWS进中国,对阿里云和用户当然都是好事。有了EMR,我ODPS就不再寂寞。明年可以好好杀一场。从进阿里第一天起,我就只盯着ODPS对外开放这一件事,终于快等到了。亚马逊,来战!”

  2014年会很有趣,看ODPS如何把对手打得满地找牙!