现在说互联网能为我们商家带来巨大的便利,我想没人去反对,而且各路商家积极探索自己的互联网道路的趋势就足 以可以证明。而在想要在互联网上有点儿作为,找存在感是不可或缺的一个大工程。于是大家总是绞尽脑汁去思考,做网站、做推广、做宣传,甚至亏本买热闹。而 地图这个玩意在当下随着O2O概念的流行有让大家关注。
记得多年前,我们查地图还是用着Google,而现在各路豪杰争相做地图。如百度地图、高德地图、腾讯地图、好搜地图等等,可想而知对于那些互联网 巨头而言,地图肯定是一个获取流量的入口。而对于我们需要宣传和推广的商户而言,同样是获取关注的一种渠道。我认为这样形形色色的地图能带给我们商家的好 处主要有如下几点:
1、使得自己多了一个可以宣传自己的窗口,而且基础的宣传是免费的;
2、提高知名度的一种手段,因为现在很多用户认为在地图上标注出来的“才够格”;
3、还提供了丰富的API,让我做各种好玩的东西(当然这需要一定技术基础)。
前几天发了一篇关于百度地图的提交方式,而今天又有朋友问到这个问题。最重要的是有不少所谓知名的网络公司竟然把提交到地图作为一个收费服务来做, 收费几百上千一个入口。而这里我想分享给大家,当然实际上特别简单;而之所以那些服务商用这么高的价格来卖,肯定也说明相当一部分用户不知道怎么做。
为了更多人的利益,我就花点自己的时间来说下吧。授之以鱼不如授之以渔,我们可以帮我们自己的客户来免费提交,但我觉得大家掌握了技巧之后自己想怎么提交就怎么提交。当然要告诉大家的是我们自己并没有提交,这里就先说明了,免得某些人来喷。
首先告诉大家的是,不管什么地图。其实基本上都可以在地图页面找到“商家标注”等类似描述的入口,而实际上这样的入口就是进入提交自己位置的通道 的。就算没有,我们可以进行搜索下即可;下面我就先介绍再发提交入口的方式来分享给大家一些主流的地图(可能很多大家都不知道)。
1、百度地图
教你一分钟学会提交店铺公司地址到各大网络地图
百度地图毫无疑问大家都熟悉的,而且我认为是被大多数用户所认可的,因为”有问题找百度”似乎成了我们很大一部分中国人的一种习惯,甚至有人就像做SEO一样,提交地图也以为只是提交给百度地图。作为BAT成员中称霸搜索市场的百度家族成员,它的重要性不言而喻。
百度地图提交入口:http://nlbc.baidu.com/lbs-lbc/index.action
2、高德地图
教你一分钟学会提交店铺公司地址到各大网络地图
几乎进行网购的人都知道淘宝天猫,还资深一点的“败家娘们”也知道它们的爹阿里集团,但对于高德地图,我想并不是大多数人都知晓的。实际上我认为高 德做地图比百度地图还要老资格,是一家专业做地图的公司。而且它现在也跟淘宝天猫一样为阿里家族一员,因为2013年05月,阿里巴巴2.9亿美元入驻高 德,成为高德第一大股东;而不到一年后的2014年02月,阿里巴巴斥资11亿美元完成对高德地图的全资收购。同样为BAT成员阿里的品牌,你懂的。高德 地图暂未发现直接的商户提交,之前我手机上使用高德APP的时候上面有添加标注的,不过我现在是使用百度地图;在APP上添加的方法大家可以搜索下。实际 上我们可以在网页上通过反馈来做到。
高德地图提交入口:http://lbs.amap.com/yuntu/%E5%9C%B0%E5%9B%BE%E6%A0%87%E6%B3%A8/maptag/
3、腾讯地图
教你一分钟学会提交店铺公司地址到各大网络地图
微信在用户的追捧、腾讯的战略、商家的炒作等各种因素的共同作用下,已经成为了互联网的王牌产品。而且腾讯自家的用户量都是其他国内互联网公司无法 比拟的,而就是这样一家拥有最大用户量的互联网巨头的王牌产品全部使用这款地图,它的重要性同样如此,同样为BAT成员家族成员。
腾讯地图提交入口:http://ugc.map.soso.com/
4、好搜地图

奇虎360作为中国最大的安全公司,但因为它喜欢挑战巨头、打破垄断,因此在2012年推出自己的搜索引擎,而且在前一个多月推出自己的独立搜索产 品——好搜。而且最近最大的新闻就是以超过1亿的添加收购域名360.com。而且好搜的市场份额已经接近30%,其重要性不言而喻。
好搜地图提交入口:http://info.haosou.com/map_add_pos.html
5、搜狗地图
教你一分钟学会提交店铺公司地址到各大网络地图
搜狐作为中国互联网四大门户网站,而搜狗就是其旗下的一个子公司;随着搜狗娶到了BAT成员腾讯的女儿搜搜后,几乎百分百确立了其在国内搜索市场老三的地位,而它整合腾讯旗下诸如微信搜索等产品,我想依然有一定地位的。
搜狗地图提交入口:http://map.sogou.com/info/biaozhu.html(其官方给的免费标注说明)
6、谷歌地图
教你一分钟学会提交店铺公司地址到各大网络地图
Google作为一家伟大的互联网公司,也是我所喜欢的一家互联网公司,它确实为我们做出了伟大的贡献。同样的在地图领域它也是元老,同时当前也是 霸主地位。但在国内,基于某些原因,它的地位日益不如一些本土产品;原因大家都懂的,甚至连我们内地提交的入口默认情况都打不开。
谷歌地图提交入口https://www.google.com/business/(需要梯子的)
其实这些信息我们都可以在网上找到的,当然有的朋友可能连有那些主要地图都不清楚,因此对他们来说也是一件不容易的事情了。最后需要说明的是,这些入口可能因为这些地图的服务商的调整而调整哦。
原文:http://www.csweigou.com/article/604.html
本文:教你一分钟学会提交店铺公司地址到各大网络地图

相关
Related Posts
Google adwords新手推广常见错误Google adwords是很多外贸公司常用的推广方式之一,由于Google在搜索引擎领域的江湖地位,它的SEM还是很有效果的。不过很多新手在操作时,往往会出现这样那样的错误,流失的可都是白花花的银子啊。下面这10个错误是Goolgle adwords新手常犯的,要尽量避免。 1.使用Content Network (adsense) Content Network会带来可能欺诈性和非目标明确性的点击,所以开始时候要把Content Network关掉。只保留转换率更高的Google Search和Search Network。 2.出价过高,这是新手亏本的第2大错误…
下载YouTube视频字幕的方法YouTube跟国内的优酷、土豆等视频网站比起来不仅广告时间短、可以“跳过广告”播放,而且很多视频上提供了字幕,有些视频甚至提供了20多种 语言的字幕。因为YouTube在国内是无法访问的,我经常会想着把一些YouTube上的视频下载下来,上传到国内的视频网站上供大家分享,但发现有个 问题,YouTube上的字幕和视频是独立的,没有合成到一起,所以,下载下来的视频是不含字幕的。这当然不行的,英语无字幕的视频估计没有几个人会喜 欢。那么,如何能把字幕也下载下来呢? YouTube的视频我是用了一个火狐浏览器的插件下载的,所以我就搜索有没有可以下载字幕的插件,果然找到了一个,YouTube Caption Downloader,但这个插件看起来在我的最新版本的火狐浏览器上是没有起作用,我看不到应该出现的下载按钮。然后我有找到了几个声称可以下载YouTube字幕的桌面小工具,比如4K Video Downloader和Google2SRT,但这些工具很简单,没有提供设置代理服务器翻墙的地方,所以,直接使用它们是连接不到YouTube网站的。 最后,我找到了这个subtitledownloader在线工具。你只需要把视频的网址提供给它,它就能发现这个视频里包含的所有字幕,并列举出来,让你选择下载那一种语言,十分方便。 但需要注意的是,这个网站好像也需要翻墙才能访问,但我想这不是问题,因为既然你已经能下载YouTube视频,就说明你已经可以访问墙外的东西了。 原文:http://www.webhek.com/youtube-subtitles-downloader 本文:下载YouTube视频字幕的方法…
如何防止网站关键数据被人恶意采集昨天晚上花了几个小时用Jsoup写了一个网站采集器,帮一个高中同学采集了一个工业信息门户上的芯片待售信息。网站上显示的数据多达60w+条, 我写的程序跑了7个小时只采集了一半,算是可以交差了。 这已经是我第二次写这种采集器了。之前在做波菜网的时候,写过一个更复杂的。当时网站上线以后苦于没有原生态的内容,我就写了一个采集器从“百度身边”采集各大城市的餐馆和菜品信息,并通过google地图的接口获取餐馆的地理位置,然后转存到我们自己的网站上。 我必须承认,做这些事儿都是不光彩的,属于不劳而获,弄不好还得背上法律责任。但是在国内这个互联网的环境下,这种小规模的数据采集想上升到法律层面去禁止,还是不切实际的。那么从一个网站的开发或者运营的角度,如何来防范别人的恶意采集呢?如何做到在防范的同时又不影响搜索引擎的蜘蛛的采集工作呢? 从我个人的采集经验来看,我觉得这种防御可以从两个方面着手。 服务器端的配置。至少可以通过防火墙来屏蔽某些ip的高频率访问,或者在web服务器设置规则来禁止关键页面被某些ip高频请求。也可以先通过防火墙设置预警机制,一旦发现异常立即通知web服务器采取屏蔽措施。不管是专业的采集器还是像我的这种纯代码级别的采集,最基本的原理就是模拟用户浏览网站行为,发送http请求到网站的server,然后解析返回的结果。出于效率起见这种采集行为都有几个共同的特点。一是发出请求的ip地址比较固定,二是请求的频率比较稳定,三是访问的页面也比较固定。防火墙的设置可以基于前面两个特征,web服务器的过滤规则可以基于后面两个特征。当然这些措施只是从物理层面的防御,放不了真正的高手。我在我的采集器里面实现的多线程采集,就会把采集频率用随机时间来控制,也就是发送采集请求的频率是随机的,有可能是3秒钟一次,有可能是2秒钟一次。另外如果我是黑客,我可以发动多个ip的肉机来发送请求。总之一句话,服务器上的防御,防得了君子,防不了高级的小人,但是有总比没有好。 代码级别的防御。采集器可以模拟浏览器大部分的行为,但是肯定有模仿不到的地方。比如说带参数的ajax请求。从我的经验来看,你至少可以在通过以下三种方式来优化你的代码,以防止恶意采集。 1> 关键信息通过ajax请求来获取,最好是需要带有临时token作为参数的请求。网站在发布的时候需要做javascript代码压缩和混淆,这样程序人员就很难通过阅读代码或者捕获请求来建立模拟采集。这里说的关键信息,是指那种对业界同行来说比较重要的信息,比如说价格等。除了这些关键信息以为的信息就最好不要用ajax请求来显示了,那样不利于SEO优化,搜索引擎的蜘蛛也不能模拟如此复杂ajax请求。另外如果有分页,一定要用ajax请求来分页。具体例子可以看看花瓣网的首页。至于通过表单请求来获取数据,有些采集器已经能模拟带session或者cookie信息的表单请求了,至少Jsoup是可以做到的。 2> 关键信息通过图片来显示。这种是技术含量比较低的防御了,唯一的好处是有利于SEO优化,因为图片通过alt来携带更加丰富的信息。京东的商品价格就是用图片来显示的,采集器采集到的价格信息需要做OCR文字识别,如果在图片的格式做些手脚或者加入混淆信息,那别人采集过去的信息准确度就会大大降低。另外通过图片来显示的另外一个好处就是可以把图片服务器独立出来,然后通过防火墙设置来只允许来自已知域名的请求。 3> 网页代码结构化混淆。简单的说就是关键信息的显示不是规律性的。这种做法对网站开发人员要求比较高。毕竟html是一种结构化的语言,想要通过不规律的html标签勾勒出美观的结构化界面是比较难的,但不是不可能。比如说同一张页面的上商品价格列表,你可以随机用div,li,span等这些文字标签来封装,然后通过定制css来达到规范布局。不同的页面(分页)上价格列表,最顶层的div的id或者class不一样,而且跟其他页面的的id无规律可循。这样做可以让采集程序很难发掘到采集的规律,那么采集的难度就大大加大了,即使能采集,效率也会相当低下。这种做法基本上不影响SEO优化。 不过话说回来,不管你采取哪种防御措施,想防住真正的高手是不可能的,只要能防住98%的人就可以了。剩下的那2%,你如果发现你的数据被采集了,就采取法律措施吧。前段时间大众点评起诉“食神摇一摇”抄袭数据,就是一个很好的例子。…