我想将spark jdbc与python一起使用。第一步是添加一个罐子:
%AddJar http://central.maven.org/maven2/org/apache/hive/hive-jdbc/2.0.0/hive-jdbc-2.0.0.jar -f
但是,响应:
ERROR: Line magic function `%AddJar` not found.
如何在python脚本中添加JDBC jar文件?
目前,这仅通过python笔记本是不可能的。但这被理解为一项重要要求。在支持此功能之前,您可以做的是从python笔记本的同一spark服务实例开始,然后%AddJar
从那里创建一个scala笔记本。然后,同一火花服务实例的所有python笔记本都可以访问它。对于从scala nb添加jar时处于活动状态的py笔记本,您需要重新启动其内核。
请注意,这适用于Jupyter 4+上的笔记本实例,但不一定适用于早期的IPython笔记本实例。从笔记本的“帮助”->“关于”菜单中检查版本。最近创建的所有新笔记本实例将在Jupyter 4+上。
本文收集自互联网,转载请注明来源。
如有侵权,请联系 [email protected] 删除。
我来说两句