
在header里面添加以下代码:
<link rel="search" type="application/opensearchdescription+xml" title="iKeepStudying" href="http://justcode.ikeepstudying.com/iks.xml" />
其中,标签“title”将会出现在图片中2的位置。
http://justcode.ikeepstudying.com/iks.xml 代码是
<?xml version="1.0" encoding="utf-8" ?>
<SearchPlugin xmlns="http://www.mozilla.org/2006/browser/search/">
<ShortName>Just Code</ShortName>
<Description>Just Code | iKeepStudying - Share Codes I Am Using or Studying
</Description>
<InputEncoding>UTF-8</InputEncoding>
<Image width="16" height="16">http://justcode.ikeepstudying.com/wp-content/uploads/favicon.ico</Image>
<Url type="text/html" method="GET" template="http://justcode.ikeepstudying.com/">
<Param name="s" value="{searchTerms}"/>
</Url>
<SearchForm>http://justcode.ikeepstudying.com</SearchForm>
</SearchPlugin>
内容一目了然,随便改改就可以了!
原文:Firefox搜索框:自动出现添加搜索的提示

Related Posts
Google adwords新手推广常见错误Google adwords是很多外贸公司常用的推广方式之一,由于Google在搜索引擎领域的江湖地位,它的SEM还是很有效果的。不过很多新手在操作时,往往会出现这样那样的错误,流失的可都是白花花的银子啊。下面这10个错误是Goolgle adwords新手常犯的,要尽量避免。 1.使用Content Network (adsense) Content Network会带来可能欺诈性和非目标明确性的点击,所以开始时候要把Content…
如何防止网站关键数据被人恶意采集昨天晚上花了几个小时用Jsoup写了一个网站采集器,帮一个高中同学采集了一个工业信息门户上的芯片待售信息。网站上显示的数据多达60w+条, 我写的程序跑了7个小时只采集了一半,算是可以交差了。 这已经是我第二次写这种采集器了。之前在做波菜网的时候,写过一个更复杂的。当时网站上线以后苦于没有原生态的内容,我就写了一个采集器从“百度身边”采集各大城市的餐馆和菜品信息,并通过google地图的接口获取餐馆的地理位置,然后转存到我们自己的网站上。 我必须承认,做这些事儿都是不光彩的,属于不劳而获,弄不好还得背上法律责任。但是在国内这个互联网的环境下,这种小规模的数据采集想上升到法律层面去禁止,还是不切实际的。那么从一个网站的开发或者运营的角度,如何来防范别人的恶意采集呢?如何做到在防范的同时又不影响搜索引擎的蜘蛛的采集工作呢? 从我个人的采集经验来看,我觉得这种防御可以从两个方面着手。 服务器端的配置。至少可以通过防火墙来屏蔽某些ip的高频率访问,或者在web服务器设置规则来禁止关键页面被某些ip高频请求。也可以先通过防火墙设置预警机制,一旦发现异常立即通知web服务器采取屏蔽措施。不管是专业的采集器还是像我的这种纯代码级别的采集,最基本的原理就是模拟用户浏览网站行为,发送http请求到网站的server,然后解析返回的结果。出于效率起见这种采集行为都有几个共同的特点。一是发出请求的ip地址比较固定,二是请求的频率比较稳定,三是访问的页面也比较固定。防火墙的设置可以基于前面两个特征,web服务器的过滤规则可以基于后面两个特征。当然这些措施只是从物理层面的防御,放不了真正的高手。我在我的采集器里面实现的多线程采集,就会把采集频率用随机时间来控制,也就是发送采集请求的频率是随机的,有可能是3秒钟一次,有可能是2秒钟一次。另外如果我是黑客,我可以发动多个ip的肉机来发送请求。总之一句话,服务器上的防御,防得了君子,防不了高级的小人,但是有总比没有好。 代码级别的防御。采集器可以模拟浏览器大部分的行为,但是肯定有模仿不到的地方。比如说带参数的ajax请求。从我的经验来看,你至少可以在通过以下三种方式来优化你的代码,以防止恶意采集。 1> 关键信息通过ajax请求来获取,最好是需要带有临时token作为参数的请求。网站在发布的时候需要做javascript代码压缩和混淆,这样程序人员就很难通过阅读代码或者捕获请求来建立模拟采集。这里说的关键信息,是指那种对业界同行来说比较重要的信息,比如说价格等。除了这些关键信息以为的信息就最好不要用ajax请求来显示了,那样不利于SEO优化,搜索引擎的蜘蛛也不能模拟如此复杂ajax请求。另外如果有分页,一定要用ajax请求来分页。具体例子可以看看花瓣网的首页。至于通过表单请求来获取数据,有些采集器已经能模拟带session或者cookie信息的表单请求了,至少Jsoup是可以做到的。…
-
Google Webmaster Tools 结构化数据标记使用入门指南要想使自己的产品在Google搜索结果有一个好的排名,我们不仅可以在提高Google搜索排名上下功夫,也可以改善我们的产品在Google搜索结果页的结构化数据样式,这样就能够以更准确、更具吸引力的方式将它们呈现给 Google用户,提高我们产品的点击率(CTR)。然后搜索结果点击率又和搜索排名是相互相成的,CTR越高,排名就可能越好。例如,当Google发现你的网页内容为结构化的产品详情、活动、食谱、评价或类似内容时,Google的算法便可以通过“丰富网页摘要”来完善您的搜索结果。 2012年12月,Google Webmaster Tools推出两项功能,它们可让你以更简单的方式使用结构化数据功能。 Google数据标注工具 …