Causal Tree
发表于
|
分类于
BriefSummary
Background
这次讲的是基础的causal tree和causal forest,最近几篇内容会跟因果推断的有关,关于因果的大框架在最近几篇文章中不会详细写,之后会有总结。总得来说做因果和做纯机器学习主要有以下区别:
与纯预测不同,因果推断中并没有真实目标值,ground truth
机器学习往往在实际中表现很好,但却很76有一些统计性质,在因果问题上,我们又比较需要一些良好的统计性质,
...
Bayes Model And Residual Error
发表于
|
分类于
Note
这次记一个ML里的小概念,bayes model和residual error。
使用算法\(\mathcal{A}\)在数据集\(\mathfrak{L}\)上训练得到模型\(\varphi_\mathfrak{L}\),定义期望预测误差为 \[
\text{Err}(\mathcal{\varphi}_\mathfrak{L})=
\mathbb{E}_{\mathcal{X},\mathca
...
Decision Tree And Tree Ensemble Methods
发表于
|
分类于
BriefSummary
决策树模型和集成方法
这次打算系统梳理树方法和相关集成学习的方法,包括但不限于以下内容(持续更新ing,部分基础内容会长时间pending,预计2020,2021年4月前完成,会整理出一个slides)
树模型基础
树模型总结(ID3,C4.5,CART基础树模型,数据处理、剪枝等基础概念)TODO
Boosting基础:A Review for Boosting
Boosting树模型高
...
Thinking in ml+or
发表于
|
分类于
Thinking
最近关于ML+OR体系的一点思考
最近又深入实(被)践(蹂躏)了一波ML+OR的工作,有些感悟思考记录一下。先贴一下一个前辈的思考
【2019.Q3】谈工业界常见的ML+OR策略架构
首先是很多场景下的解决方案都可以看作是ML+OR的组合,这个在上面的文章中也已经提到了,包括且不限于最简单的经验预测值+各类规划问题(传统OR场景,强假设+复杂优化)以及各种“高精尖”的预测+简单排序(传统ML场景,
...
kdd 2019 paper notes
发表于
|
分类于
PaperNote
kdd 2019 paper notes
文章太多,没法每篇都很详细写,一些看过的会在此处做一些简单的笔记作为记录。
AccuAir: Winning Solution to Air Quality Prediction for KDD Cup 2018
这次是kdd cup比赛空气质量预测第一名的方案。
背景
本次比赛中,空气质量预测主要面临以下问题:
空气污染受影响因素太多,如天气这种自然环
...
A Unified Framework for Marketing Budget Allocation
发表于
|
分类于
PaperNote
[KDD2019] A Unified Framework for Marketing Budget Allocation
这次是kdd2019的论文分享,本篇是做预算分配的,因为跟我最近做的工作有些关系,所以刚好整理一下。
背景
预算分配核心是解决该把钱投在哪的问题,本篇文章意在提出一种做预算分配的通用框架,包括两个步骤,首先通过历史数据去学习需求曲线,也可称为市场响应模型(market res
...
steps_2019-07-13
发表于
|
分类于
Steps
跬步 2019-07-13
平时还是有些零星的idea休要记录下来,所以开一个跬步的系列,不积跬步,无以至千里。
出行的“聚合模式”
最近各家都在搞聚合模式,在以前滴滴一家独大的时候,的确是不怎么需要聚合模式的,毕竟离开了滴滴就打不到车了,现在入场的玩家越来越多了,大公司搞起了聚合模式,把自己做成一个真的平台。目前市面上有三家在做聚合平台,高德、滴滴、美团。对于高德来说,如何对流量变现一直是成为“
...
bandit notes
发表于
|
分类于
BriefSummary
Bandit Note(进行中)
Introduction
基本术语:
learner、player,决策者、玩家
environment,环境
horizon,决策周期
action,动作、决策、选择
reward,奖励
policy,策略
regret,悔恨
玩家在\(n\)轮决策周期内进行游戏,在每一轮\(t\in[n]\)中,玩家从给定动作集合\(\mathcal{A}\)中选择动作\
...
Scalable Training of L1-Regularized Log-Linear Models
发表于
|
分类于
PaperNote
Scalable Training of L1-Regularized Log-Linear Models
最近重读了一下之前阿里的MLR,又仔细研究了一下里面的优化算法,然后发现也是对之前的一个叫Orthant- Wise Limited-memory Quasi-Newton(下文中称OWL-QN,这个owl让我想起了哈利波特的Ordinary Wizarding Level...)的方法进行
...