【Python】如何利用百度API进行地理编码(将地名转换为经纬度信息)

先附上完整代码,修改一下自己的百度密钥即可运行。注意:只能检索中文地址,英文不可识别。

#-*-coding:utf-8-*-
from urllib.request import urlopen, quote
import os, sys, codecs, json

path = sys.path[0] + os.sep
print(path)

def getlnglat(address):
    """根据传入地名参数获取经纬度"""
    url = 'http://api.map.baidu.com/geocoder/v2/'
    output = 'json'
    ak = '这里需要手动填写' # 浏览器端密钥
    address = quote(address) 
    uri = url + '?' + 'address=' + address  + '&output=' + output + '&ak=' + ak 
    req = urlopen(uri)
    res = req.read().decode() 
    temp = json.loads(res)
    if temp['status'] == 0:
        lat = temp['result']['location']['lat']
        lng = temp['result']['location']['lng']
    elif temp['status'] == 1:
        print("错误地址输入", address)
        lat = -1
        lng = -1
    elif temp['status'] == 2:
        print("无地址输入", address)
        lat = 0
        lng = 0
    else:
        print("未知问题", address)
        lat = -2
        lng = -2
    return lat, lng

def jsondump(outfilename, dic):
    """传入保存路径和字典参数,保存数据到对应的文件中"""
    with codecs.open(path + outfilename + '.json', 'a', 'utf-8') as outfile:
        json.dump(dic, outfile, ensure_ascii=False)
        outfile.write('\n')

def convertfile(filename):
    file = codecs.open(path + filename, 'r', encoding='utf-8')
    outfilename = 'loc' + filename
    for line in file:
        dic = json.loads(line.strip())
        address = dic['地址']
        dic['lat'], dic['lng'] = getlnglat(address)
        jsondump(outfilename, dic)

def run():
    print(getlnglat("洛杉矶CA"))

if __name__ == '__main__':
    run()

下面是完整教程。

===========================================================

一、注册密钥
在百度地图API上相关位置的展现是以经纬度为基础的。要使用百度地图接口需要注册百度地图API以获取免费的密钥,才能完全使用该API。登录网址:http://lbsyun.baidu.com/, 
首页点击申请密钥按钮,经过填写个人信息、邮箱注册等,成功之后在开放平台上点击“创建应用”,填写相关信息,应用名称可随意填写,应用类型根据自己需要进行设置,若是做安卓开发则选择Android SDK,本应用中因为是通过浏览器端进行调用,所以选择浏览器端。在这里特别说明的是,在IP白名单框里,如果不清楚自己的IP地址,最好设置为:0.0.0.0/0,虽然百度提醒它会有泄露使用的风险,但是有时候你把你自己的IP地址输进去可能也不行。提交后,在你创建应用的访问应用(AK)那一栏就是你的密钥。

二、利用申请好的密钥获取经纬度坐标
注册好密钥后就可以使用百度Web服务API下的Geocoding API接口来获取你所需要地址的经纬度坐标并转化为json结构的数据,开发文档链接为Geocoding API,该文档中有一些参数的说明,如果需求和本文不太一致,可前往该页面了解每个参数的作用并进行修改以获取需要的效果。 
下面是根据地址获取经纬度的函数。传入地名,返回纬度,经度

import json
from urllib.request import urlopen, quote
import requests
def getlnglat(address):
    url = 'http://api.map.baidu.com/geocoder/v2/'
    output = 'json'
    ak = '申请好的密钥' # 浏览器端密钥
    address = quote(address) # 由于本文地址变量为中文,为防止乱码,先用quote进行编码
    uri = url + '?' + 'address=' + address  + '&output=' + output + '&ak=' + ak 
    req = urlopen(uri)
    res = req.read().decode() 
    temp = json.loads(res)
    lat = temp['result']['location']['lat']
    lng = temp['result']['location']['lng']
    return lat, lng



三、读取数据批量获取经纬度
{"种类": "火锅", "商家名称": "沸炉火锅·地道的川味火锅(怀柔...", "电话": "  010-60686895", "营业时间": "10:00-21:00 周一至周日", "评分": 9.2, "地址": "北京市怀柔区府前西街2号新悦百货四楼", "链接": "http://www.dianping.com/shop/70861885", "人均消费": 96, "评论数量": "261"}
{"种类": "北京菜", "商家名称": "青龙山庄", "电话": "  13141427145", "营业时间": "全天 周一至周日", "评分": 7.8, "地址": "北京市怀柔区怀北镇河防口村青龙峡道口公交站东800米", "链接": "http://www.dianping.com/shop/68040161", "人均消费": 92, "评论数量": "15"}
1
2
本文中读取的数据为上述类型的json数据,读取每一行数据到一个字典中,将字典中的地址数据传给上文中的参数,获取返回的经纬度,并写入字典中,存储为新的数据。 
完整代码为:

#-*-coding:utf-8-*-
# getlonlat.py
# from: mamq
# run: python3 getlonlat.py
from urllib.request import urlopen, quote
from pymongo import MongoClient
import json
import codecs
import sys
import os

path = sys.path[0] + os.sep

def getlnglat(address):
    """根据传入地名参数获取经纬度"""
    url = 'http://api.map.baidu.com/geocoder/v2/'
    output = 'json'
    ak = '申请好的密钥' # 浏览器端密钥
    address = quote(address) 
    uri = url + '?' + 'address=' + address  + '&output=' + output + '&ak=' + ak 
    req = urlopen(uri)
    res = req.read().decode() 
    temp = json.loads(res)
    lat = temp['result']['location']['lat']
    lng = temp['result']['location']['lng']
    return lat, lng

def jsondump(outfilename, dic):
    """传入保存路径和字典参数,保存数据到对应的文件中"""
    with codecs.open(path + outfilename + '.json', 'a', 'utf-8') as outfile:
        json.dump(dic, outfile, ensure_ascii=False)
        outfile.write('\n')

def convertfile(filename):
    file = codecs.open(path + filename, 'r', encoding='utf-8')
    outfilename = 'loc' + filename
    for line in file:
        dic = json.loads(line.strip())
        address = dic['地址']
        dic['lat'], dic['lng'] = getlnglat(address)
        jsondump(outfilename, dic)

def convertmongodb(host, dbname, collname):
    '''连接mongodb, 并根据其位置字段得到其坐标信息,进而更新数据库'''
    client = MongoClient(host, 27017)   
    db = client[dbname]
    collection = db[collname]
    for dic in collection.find():
        dic['lat'], dic['lng'] = getlnglat(dic['地址'])
        collection.save(dic) # 更新数据,并覆盖相同_id的记录
    print (dic)

if __name__ == '__main__':
    filename = '/home/mamq/test.json'
    # convertfile(filename)
    host = '192.168.1.101' # 需要连接的数据库所在ip
    dbname = 'landPlan'
    collname = 'xian'
    convertmongodb(host, dbname, collname)


参考资料: 
[1]:Geocoding API:Web服务API
--------------------- 
作者:MoonBreeze_Ma 
来源:CSDN 
原文:https://blog.csdn.net/qq_23926575/article/details/72569995 
版权声明:本文为博主原创文章,转载请附上博文链接!

 

  • 0
    点赞
  • 0
    评论
  • 7
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

相关推荐
<p style="font-size:16px;color:#666666;"> <img src="https://img-bss.csdn.net/202001311426171105.png" alt="" /> </p> <p style="font-size:16px;color:#666666;"> <strong><span style="font-size:20px;">课程目标</span></strong> </p> <p style="font-size:16px;color:#666666;"> 《从零开始学Scrapy网络爬虫》从零开始,循序渐进地介绍了目前流行的网络爬虫框架Scrapy。即使你没有任何编程基础,学习起来也不会有压力,因为我们有针对性地介绍了Python编程技术。另外,《从零开始学Scrapy网络爬虫》在讲解过程中以案例为导向,通过对案例的不断迭代、优化,让读者加深对知识的理解,并通过14个项目案例,提高学习者解决实际问题的能力。 </p> <p style="font-size:16px;color:#666666;"> <br /> </p> <p style="font-size:16px;color:#666666;"> <strong><span style="font-size:20px;">适合对象</span></strong> </p> <p style="font-size:16px;color:#666666;"> 爬虫初学者、爬虫爱好者、高校相关专业的学生、数据爬虫工程师。 </p> <p style="font-size:16px;color:#666666;"> <br /> </p> <p style="font-size:16px;color:#666666;"> <span style="font-size:20px;"><strong>课程介绍</strong></span> </p> <p style="font-size:16px;color:#666666;"> 《从零开始学Scrapy网络爬虫》共13章。其中,第1~4章为基础篇,介绍了Python基础、网络爬虫基础、Scrapy框架及基本的爬虫功能。第5~10章为进阶篇,介绍了如何将爬虫数据存储于MySQL、MongoDB和Redis数据库中;如何实现异步AJAX数据的爬取;如何使用Selenium和Splash实现动态网站的爬取;如何实现模拟登录功能;如何突破反爬虫技术,以及如何实现文件和图片的下载。第11~13章为高级篇,介绍了使用Scrapy-Redis实现分布式爬虫;使用Scrapyd和Docker部署分布式爬虫;使用Gerapy管理分布式爬虫,并实现了一个抢票软件的综合项目。 </p> <p style="font-size:16px;color:#666666;"> <span style="color:#FF0000;">      由于目标网站可能会对页面进行改版或者升级反爬虫措施,如果发现视频中的方法无法成功爬取数据,敬请按照页面实际情况修改XPath的路径表达式。视频教程主要提供理论、方法支撑。我们也会在第一时间更新源代码,谢谢!</span> </p> <p style="font-size:16px;color:#666666;"> <img src="https://img-bss.csdn.net/202001311426306665.png" alt="" /> </p> <p style="font-size:16px;color:#666666;"> <strong><span style="font-size:20px;">课程特色</span></strong> </p> <p style="font-size:16px;"> <img src="https://img-bss.csdn.net/202001311426415123.png" alt="" /> </p> <div> <br /> </div>
©️2020 CSDN 皮肤主题: 编程工作室 设计师:CSDN官方博客 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值