基于ROS的Most Stars開源代碼匯總(自動駕駛汽車+RGBDSLAMv2+ROS2+人識別與跟蹤等)
Star 200+
https://github.com/CPFL/Autoware
用于城市自主駕駛的開源軟件。?http://www.tier4.jp/
Autoware
用于城市自主駕駛的集成開源軟件,由第四層維護。支持以下功能:
3D本地化
3D映射
路徑規劃
路徑跟隨
加速/制動/轉向控制
數據記錄
汽車/行人/物體檢測
交通信號檢測
交通燈識別
車道檢測
對象跟蹤
傳感器校準
傳感器融合
面向云的地圖
連接自動化
智能手機導航
軟件仿真
虛擬現實
Autoware受BSD許可證保護。請自行負責使用。為了安全使用,我們為不擁有真正自主車輛的人提供基于ROSBAG的仿真方法。如果您使用Autoware與真正的自主車輛,請在現場測試之前制定安全措施和風險評估。
執照
新的BSD許可證
參見許可證
規格推薦
的CPU內核:8
RAM大小:32GB
存儲大小:30GB
要求
ROS靛藍(Ubuntu 14.04)或ROS玉(Ubuntu 15.04)
OpenCV 2.4.10或更高版本注意:截至2016年8月,Autoware不支持OpenCV 3或更高版本。請使用OpenCV 2
Qt 5.2.1或更高
CUDA(可選)
FlyCapture2(可選)
犰狳
如果在ROS Hydro或Ubuntu 13.04,13.10上使用Autoware,請在2015 / OCT / 21之前使用結帳修訂。
安裝Ubuntu 14.04靛藍的依賴
% sudo apt-get install ros-indigo-desktop-full ros-indigo-nmea-msgs ros-indigo-nmea-navsat-driver ros-indigo-sound-play ros-indigo-jsk-visualization ros-indigo-grid-map
% sudo apt-get install ros-indigo-controller-manager ros-indigo-ros-control ros-indigo-ros-controllers ros-indigo-gazebo-ros-control ros-indigo-sicktoolbox ros-indigo-sicktoolbox-wrapper ros-indigo-joystick-drivers ros-indigo-novatel-span-driver
% sudo apt-get install libnlopt-dev freeglut3-dev qtbase5-dev libqt5opengl5-dev libssh2-1-dev libarmadillo-dev libpcap-dev gksu libgl1-mesa-dev
注意:請勿安裝ros-indigo-velodyne-pointcloud軟件包。如果您已經安裝,請卸載它。
安裝Ubuntu 15.04玉器的依賴項
% sudo apt-get install ros-jade-desktop-full ros-jade-nmea-msgs ros-jade-nmea-navsat-driver ros-jade-sound-play
% sudo apt-get install ros-jade-controller-manager ros-jade-ros-control ros-jade-ros-controllers ros-jade-gazebo-ros-control ros-jade-sicktoolbox ros-jade-sicktoolbox-wrapper ros-jade-joystick-drivers ros-jade-novatel-span-driver
% sudo apt-get install libnlopt-dev freeglut3-dev qt5-default libqt5opengl5-dev libssh2-1-dev libarmadillo-dev libpcap-dev gksu libgl1-mesa-dev
注意:在Ubuntu15.04 Jade中沒有提供jsk_visualization和grid_map。請從以下存儲庫下載并自行構建。https://github.com/jsk-ros-pkg/jsk_visualization?https://github.com/ethz-asl/grid_map
如何構建
$ cd $HOME
$ git clone https://github.com/CPFL/Autoware.git
$ cd ~/Autoware/ros/src
$ catkin_init_workspace
$ cd ../
$ ./catkin_make_release
###基于Caffe的對象檢測器基于CV的檢測器RCNN和SSD節點不會自動構建。
要構建這些節點,請遵循相應節點的README?SSD?RCNN
如何開始
$ cd $HOME/Autoware/ros
$ ./run
對于開發人員
小心更改下面的文件ros/src/sensing/drivers/lidar/packages/velodyne。有子樹。原始存儲庫在這里。如果從這個存儲庫更改這些文件,您必須使用git子樹推送。(如果您不明白,請不要更改并推送代碼?git subtree)。
GitFlow,git分支模型,在Autoware倉庫中引入。
添加新功能時,您可以從中分支功能分支develop。
您可以使用以下命令。
$ git checkout -b feature/[your_branch_name] develop
當您在master分支中發現錯誤時,可以從您的修補程序分支中分離出來master。
您可以使用以下命令。
$ git checkout -b hotfix/[your_branch_name] master
更多細節在這里
文件
請參閱Autoware / docs。截至2015年8月,我們僅提供日本文件。英文文本將會加入。
主要包裝
本土化
ndt_localizer
icp_localizer
發現
lidar_tracker
cv_tracker
road_wizard
使命(全球)規劃
lane_planner
way_planner
freespace_planner
運動(本地)規劃
astar_planner
lattice_planner
dp_planner
車輛控制
waypoint_follower
waypoint_maker
引文研究論文
S.加藤,Takeuchi,Y. Ishiguro,Y.Ninomiya,K.Takeda和T. Hamada。“開放式自動車輛方法”,IEEE Micro,Vol。35,No. 6,pp。60-69,2015。
演示視頻
公路示范
說明視頻
快速開始
加載地圖數據
GNSS定位
沒有GNSS的本地化
制圖
用SSD進行檢測
用DPM檢測
用歐氏距離聚類檢測
交通燈識別
規劃與ROSBAG
用wf_simulator進行規劃
混合狀態A *
校準工具包
樣品數據
森山在名古屋的3D地圖
森山駕駛的ROSBAG數據
用于生成森山的演示啟動文件的腳本
ROSBAG數據用于校準
IROS 2016數據
名古屋駕駛的ROSBAG數據
聯系
Autoware Developers(autoware@googlegroups.com)
要訂閱Autoware Developers ML,
如果您有Google帳戶,請訪問https://groups.google.com/d/forum/autoware,然后點擊應用于加入群組按鈕。
如果您沒有Google帳戶,請發送電子郵件至autoware+subscribe@googlegroups.com。
----
用于ROS的RGB-D SLAM
https://github.com/felixendres/rgbdslam_v2
RGBDSLAM?v2
...是用于RGB-D相機的最先進的SLAM系統,例如Microsoft Kinect或Asus Xtion Pro Live。您可以使用它來創建3D點云或OctoMaps。
RGBDSLAMv2是基于開源項目,ROS,OpenCV,OpenGL,PCL,OctoMap,SiftGPU,g2o等等 - 謝謝!
具有系統描述和性能評估的期刊文章可以在以下出版物中找到:
“3D Mapping with a RGB-D Camera”,
F. Endres,J.Hess,J.Sturm,D. Cremers,W.Burgard,
IEEE Transactions on Robotics,2014。
更多的信息可以在我的博士論文中找到
其他信息可以在這里找到:
www.informatik.uni-freiburg.de/~endres
http://www.ros.org/wiki/rgbdslam
http://answers.ros.org/questions/tags:rgbdslam
先決條件
Ubuntu 16.04
ROS動力學
Amd64處理器(ARM已知有問題,主要與qt和opengl相關)其他版本可能會工作,但未經測試。如果您使用其他版本,請報告成功。
安裝
這是一個規范的方式,如果你知道你在做什么,隨時適應。
將RGBDSLAMv2放在catkin工作區中:有關?詳細信息,請參閱catkin?教程。使用git將此存儲庫克隆到工作區的“src /”目錄中。或下載RGBDSLAMv2作為存檔,并將其解壓縮到“src /”。
下載我的[g2o fork |?https://github.com/felixendres/g2o?],將其放在其他目錄中。構建并安裝。將環境變量導出$G2O_DIR到安裝目錄,讓rgbdslam_v2知道在哪里找到它(請參閱從Scratch安裝一個示例)。
使用rosdep(即“rosdep install rgbdslam”)安裝缺少的依賴項。詳情請見http://wiki.ros.org/ROS/Tutorials/rosdep
要構建RGBDSLAMv2去你的catkin工作區并執行“catkin_make”。如果您收到有關缺少siftgpu庫的錯誤信息,請再次執行“catkin_make”。
##從Scratch ########################################### ########現在有一個install.sh腳本,可以執行(bash install.sh)。它安裝在?/ Code之下所需的一切(您可以在腳本中更改位置)。
腳本簡短而且不復雜,因此您也可以將其用作手冊。
如果要使用安裝腳本,則直接下載就足夠了?。沒有必要克隆這個存儲庫,因為腳本會為你做這個。
如果您擁有4GB或更多內存的多核機器,則可以通過將“-j2”的兩次發生增加到例如“-j4”來加快編譯速度。
安裝完成?下一步是什么?
有關使用情況的詳細信息,請參閱以下部分。但是,讓您快速開始這里是最重要的指標:
如果要使用RGBDSLAMv2與RGB-D攝像機,您可能必須安裝openni(sudo apt-get install ros-kinetic-openni-launch)或類似的東西
查看“launch /”中的啟動文件的示例和具體用例。roslaunch rgbdslam openni + rgbdslam.launch是實時映射的良好起點。
您可能需要根據攝像機驅動程序節點調整輸入主題的參數。
查看“test /”中的README,用于在Juergen Sturm的RGB-D SLAM數據集和基準測試中運行,測試和評估RGBDSLAMv2:http?:?//vision.in.tum.de/data/datasets/rgbd-dataset?您需要cython for評估腳本(sudo apt-get install cython)。
如果要使用SURF或SIFT,則需要從源代碼構建OpenCV,包括非免費模塊(這不包括已包含的SIFTGPU,但需要在CMakeLists.txt中啟用)。在RGBDSLAMv2的CMakeLists.txt中,您可以設置OpenCV的構建目錄,并啟用非免費功能。請注意,SIFT和SURF不是最佳選擇。由于RGBDSLAMv2中的新(軟件)功能,ORB優于兩者。
重要的提示
該軟件是ROS Fuerte版本的RGBDSLAM的更新。然而,很多事情都發生了變化,所以下面的一些文檔可能會被淘汰。請報告文檔的問題。謝謝。
組態
有幾個示例啟動文件在某些 用例中設置了RGB-D SLAM的參數。有關所有設置的明確列表及其默認設置,請參閱GUI菜單設置 - >查看當前設置中的src / parameter_server.cpp或(當前設置而不是默認設置)中可讀取的定義。
各種用例啟動文件可能無法正常工作,因為它們沒有經常測試。你應該讓他們跑步,如果你提到的主題(“rostopic列表”和“rosnode信息”將幫助你“rqt_graph”也是太好了)。
用法
大多數人似乎想要注冊點云。當您命令RGB-D SLAM執行此操作時,默認情況下會發送到/ rgbdslam / batch_clouds上(見下文)。發送的云實際上與以前一樣,但是/從/映射到/ openni_camera的默認轉換是在/ tf發送的。
octoMap庫被編譯到rgbdslam節點。這允許直接創建octomap。在GUI中,可以通過從“數據”菜單中選擇“保存八進制”來完成。在線八進制是可能的,但不推薦。
使用GUI
要啟動RGBDSLAMv2啟動,例如$ roslaunch rgbdslam openni + rgbdslam.launch
或者,您可以單獨啟動openni節點和RGBDSLAMv2,例如:roslaunch openni_camera openni_node.launch roslaunch rgbdslam rgbdslam.launch
要捕獲模型,請按空格開始錄制連續流,或按回車記錄單幀。為了減少數據冗余,從(幾乎)相同位置的順序幀不包括在最終模型中。
參數RGBDSLAMv2可以通過參數進行定制。這些應該在啟動文件中設置。可以在GUI操作期間更改參數,但是,從GUI更改可能對許多參數沒有影響。
可視化3D可視化顯示全局優化模型(您可能需要點擊它才能在優化后更新視圖)。除了缺少值和深度跳躍之外,相鄰點可以進行三角測量。使用快捷方式“t”,可以切換三角測量。由于原始點的渲染速度稍微加快,參數“cloud_display_type”控制是否在收到云時完全計算三角測量。參數“gl_point_size”對大多數用戶可能是有用的。
使用無GUI
RosUI可以替代Grapical_UI來運行rgbdslam headless,例如在PR2上。然后可以通過服務調用使用rgbdslam。可能的電話是:
/ rgbdslam / ros_ui {reset,quick_save,send_all,delete_frame,optimize,reload_config,save_trajectory}
/ rgbdslam / ros_ui_b {pause,record} {true,false}
/ rgbdslam / ros_ui_f {set_max} {float}
/ rgbdslam / ros_ui_s {save_octomap,save_cloud,save_g2o_graph,save_trajectory,save_features,save_individual} {filename}
要啟動rgbdslam headless使用headless.launch:$ roslaunch rgbdslam headless.launch
通過以下方式捕獲單個幀:$ rosservice call / rgbdslam / ros_ui frame
捕獲數據流:$ rosservice call / rgbdslam / ros_ui_b pause false
使用計算轉換發送點云(例如,到rviz或octomap_server):$ rosservice call / rgbdslam / ros_ui send_all
使用以下之一保存數據:
一個文件中的所有點云在rgbdslam / bin目錄中的quicksave.pcd:$ rosservice call / rgbdslam / ros_ui_s save_cloud
在rgbdslam / bin目錄中的自己文件中的每個點云:$ rosservice call / rgbdslam / ros_ui save_individual
/ rgbdslam / ros_ui:
復位“”重置圖形,刪除所有節點(僅在捕獲新圖像時刷新)“
幀“從傳感器捕獲一幀”
優化“觸發器圖優化器”
reload_config“從ROS參數服務器重新加載參數”
quick_save“將所有點云保存在一個文件中,在rgbdslam / bin目錄中的”quicksave.pcd“
send_all''將所有點云發送到/ rgbdslam / converted_cloud(可以使用rviz進行可視化)''
delete_frame''從圖形中刪除最后一幀(僅在捕獲新圖像時刷新)''
/ rgbdslam / ros_ui_b:
暫停“暫停或恢復圖像的捕獲”
記錄“暫停或停止記錄袋文件,可以在rgbdslam / bin目錄中找到”
/ rgbdslam / ros_ui_f:
set_max“過濾出比此值更遠的所有數據點(以cm為單位,僅用于保存到文件中)
/ rgbdslam / ros_ui_s:
save_features'將特征位置和描述符保存在具有給定文件名的“yaml”文件中
save_cloud“將云保存到給定的文件名(應以.ply或.pcd結尾)”
save_individual'將每個掃描保存在自己的文件中(在給定的前綴中添加一個后綴)''
save_octomap“將云保存到給定的文件名”
save_trajectory'將傳感器軌跡保存到文件_estimate.txt''
進一步幫助
編譯可能需要很多內存,特別是如果設置了環境變量$ ROS_PARALLEL_JOBS。
如果您位于德國,并將保存的文件夾加載到meshlab中,請嘗試切換到US語言環境,或用.use文件中的逗號替換小數點。
如果您對RGBDSLAM的安裝或使用有任何疑問,請參閱http://answers.ros.org/questions/?tags=RGBDSLAM如需進一步的問題,建議,修改本自述文件或提交修補程序,請聯系Felix Endres(endres @ informatik.uni-freiburg.de)。
除了本手冊,可以使用rosdoc(“rosrun rosdoc rosdoc rgbdslam”)創建代碼文檔,該文件將在當前目錄中創建一個“doc”文件夾。
GICP和SIFTGPU
如果與GICP或SIFTGPU的編譯或鏈接有關的問題,可以在CMakeLists.txt的頂部停用這些功能。您可能會獲得更快的GPU功能設置參數“siftgpu_with_cuda”,但您將需要安裝可能需要NVidia GPU的專有CUDA驅動程序(請參閱http://www.nvidia.com/object/cuda_gpus.html)。要安裝開發驅動程序和CUDA SDK,您可以使用以下教程:http?://sublimated.wordpress.com/2011/03/25/installing-cuda-4-0-rc-on-ubuntu-10-10- 64位/?ubuntu 10.04:http?:?//ubuntuforums.org/showthread.php?t=1625433(在Ubuntu 10.04 x64上測試)要使用SiftGPU,您應該安裝“libdevil-dev”。
可以在external / siftgpu / linux / makefile中更改其他編譯信息。
如果您收到siftgpu庫找不到的錯誤,請在目錄external / siftgpu /并重新運行catkin_make中手動執行“make”。
GICP廣泛的ICP可以(de)激活,以完善注冊。有關更多信息,請參閱http://stanford.edu/~avsegal/generalized_icp.html
許可信息
這個軟件是分發的,希望它是有用的,但沒有任何保證;?甚至沒有適銷性或適用于特定用途的默示保證。
RGBDSLAM是根據GPL v.3授權的。請參閱隨附的文件“復制”。
----
ROS2:https://github.com/ros2/ros2/wiki
ROS 2
機器人操作系統(ROS)是一組可幫助您構建機器人應用程序的軟件庫和工具。從驅動程序到最先進的算法,以及強大的開發人員工具,ROS具有您下一個機器人項目所需的功能。這都是開源的。
在這里,您將找到有關如何安裝和使用ROS 2軟件的文檔,ROS 2是一個正在大力開發的新版本的ROS。有關ROS 2的更多信息,請參見下文。
如果您正在尋找有關ROS 1的信息(即ROS,因為它已經存在了好幾年,現在您可能正在使用),請查看ROS網站或文檔維基。
在繼續之前,請閱讀功能頁面了解當前ROS 2版本中的內容。
安裝
請參閱安裝頁面。
教程
ROS 2正在大力發展,所有版本目前都是“alpha”-prefixed。您不應該期望今天從ROS 1切換到ROS 2,但您可以查看教程頁面,以查看系統在當前狀態下可以執行的操作的一系列示例。
特約
有關如何為ROS 2開發做出貢獻的詳細信息,請參閱貢獻頁面和開發人員指南。
報告問題和提問
請參閱聯系頁面。
關于ROS 2
自從ROS于2007年啟動以來,機器人和ROS社區發生了很大變化。ROS 2項目的目標是適應這些變化,利用ROS 1的優勢,改善不了的。有一個關于ROS 2的動機完整的文章在這里。
當前狀態
ROS 2的Alpha版本目前正在進行約6周的節奏,讓社區成員有機會對系統提供反饋。在高層次上,ROS 2的發展廣泛側重于為支持多個DDS中間件實施,多個操作系統,多種編程語言以及與運行ROS 1的系統共存的基礎奠定基礎。有關當前功能的詳細信息,請參閱功能。
有什么事情
有關ROS 2的即將推出的功能的詳細信息,請參閱路線圖。
在哪里可以找到更多信息
有關ROS 2設計的各種文章在design.ros2.org,如:為什么選擇ROS 2.0?,DDS上的ROS以及ROS 1和ROS 2之間的變化。
ROS 2的代碼是開源的,分為各種存儲庫。您可以在ros2 github組織上找到大多數存儲庫的代碼。
以下是關于ROS 2的ROSCon會談,并提供有關ROS 2和各種演示的工作的信息:
----
SPENCER多模態人員檢測和跟蹤框架
多模式檢測:多個RGB-D和2D激光探測器在一個通用的框架中。
人員跟蹤:基于最近鄰數據關聯的高效追蹤器。
社會關系:通過連貫的運動指標估計人與人之間的空間關系。
群體跟蹤:根據社會關系檢測和跟蹤群體。
魯棒性:?IMM,追蹤啟動邏輯和高回調檢測器輸入等各種擴展功能使人們-即使在非常動態的環境中也能相對穩健地工作。
實時:在游戲筆記本電腦上運行20-30 Hz,-本身只需要1個CPU核心的10%。
可擴展和可重用:結構良好的ROS消息類型和明確定義的界面可以輕松集成自定義檢測和跟蹤組件。
強大的可視化:一系列可重用的RViz插件,可以通過鼠標點擊配置,還有用于生成動畫(2D)SVG文件的腳本。
評估工具:用于評估跟蹤性能的指標(CLEAR-MOT,OSPA)。
ROS集成:所有組件都與ROS完全集成,并以C ++或Python編寫。不需要Matlab。
歐盟FP7研究項目SPENCER的目標是為服務機器人開發算法,可以通過高度動態和擁擠的行人環境(如機場或購物中心)來指導群體,同時以符合社會的方式行事,例如不跨越家庭或夫婦?這樣的機器人可以遇到的示例性情況在右側的下圖中可視化。為此,需要開發出在機器人環境中對于人類感知的強大和計算效率高的組件。
下圖顯示了在SPENCER項目背景下開發的實時人員和組檢測和跟蹤管道:
我們管道的不同階段之間的整個溝通通過ROS消息發生,這些消息鼓勵在自定義設置中重用我們的組件。模塊化架構允許在管道的所有階段中各個組件的簡單互換性。
我們提供一套可重復使用的ROS消息類型定義,我們已經通過不同的傳感器模式和跟蹤方法成功地應用于各種人員檢測和跟蹤場景。可以在spencer_tracking_msgs包中找到最相關的消息。
我們高度鼓勵重用這些消息,以從我們豐富的檢測,跟蹤,過濾和可視化組件的基礎設施中獲益!現有的檢測和跟蹤算法通常可以通過以我們的格式發布附加消息,或通過編寫一個簡單的C ++或Python節點來轉換消息格式,來容易地集成。
我們集成了以下人員檢測模塊:
基于Arras等人的方法,重新實現了增強的2D激光分段分類器。[3]
在[2]中更仔細地描述了一種RGB-D上身檢測器,其在深度圖像中的ROI上滑動歸一化深度模板
基于給定地面估計的單目視覺全身HOG檢測器(groundHOG)?[2]確定了可以預期行人的圖像走廊。該檢測器使用CUDA進行GPU加速。包含的cudaHOG庫需要手動編譯和最新的CUDA SDK以及nVidia顯卡。
一種來自PCL的RGB-D檢測器,其在接地面上提取候選ROI,然后應用線性HOG分類器[4]
輸出geometry_msgs/PoseArray或people_msgs/PositionMeasurementArray消息的其他外部檢測器可以使用此包中的腳本輕松地集成到我們的框架中。這種檢測器的實例包括:
在基于激光的腿探測器從WG-感知,這可能如果傳感器非常靠近地面比我們自己的激光探測器更好地工作。請參閱我們的包裝包和leg_detectors.launch(替換laser_detectors.launch)。
對于檢測到檢測融合,我們實現了一系列節點,可以通過roslaunch XML文件靈活地組合融合流水線。詳細信息可以在spencer_detected_person_association包中找到。下圖顯示了在SPENCER實驗期間使用的示例配置:
在檢測到軌道融合(目前未實現)的情況下,仍然建議對與軌道相關聯的每組檢測發布CompositeDetectedPerson消息(通過CompositeDetectedPersons),以便稍后可以返回到來自軌道的原始檢測,以及通過相關聯的檢測標識查找關聯圖像邊界框等。
對于個人和組跟蹤,我們目前提供基于最近鄰標準過濾器數據關聯的示例性代碼,其在大多數使用情況下足夠強大(特別是如果正在使用多模態檢測器)。的人跟蹤已增強與軌道起始的邏輯和4不同的基于IMM-運動模型(恒速低過程噪聲,高過程噪聲,協調轉彎和布朗運動),以使跟蹤更加健壯。
該組-依賴于社會/空間關系經由如在[1]中所述的相同相干運動指示器特征來確定。
在內部,我們已經集成了更先進的方法,包括軌跡導向多假設人物-[2],以及假設為導向的多模型多假設人和組-[1]。這些組件使用完全相同的ROS消息定義,但是它們尚未公開。這里提供的組件最初作為比較的基準方法實現。
所述spencer_tracking_utils包包含許多獨立的ROS的節點,可以過濾傳入組TrackedPerson基于不同標準的消息,例如,到傳感器/機器人的距離,僅在視覺上確認軌道等
在spencer_tracking_metrics中,我們已經公開了不同跟蹤指標的實現,例如CLEAR-MOT和OSPA,以便它們與我們的消息定義兼容。這些可用于評估給定的基準線的跟蹤性能。
該srl_tracking_logfile_import包提供了進口的卡門格式舊的2D激光掃描日志文件已經標注了真實狀況的人曲目,如Python腳本,這些數據集。
所述srl_tracking_exporter包中包含用于從2D自上而下的角度為可伸縮矢量圖形(SVGs)渲染軌道軌跡,檢測和機器人測距法的有用Python腳本。這些可以選擇性地動畫化以便可視化一個或多個軌道隨著時間的演變。
我們的框架的一個主要亮點是可重用和高度可配置的定制RViz插件,用于可視化:
檢測人員
跟蹤人員(包括閉塞狀態,相關檢測ID和協方差橢圓)
社會關系
跟蹤組
作為示例,跟蹤人員的一些功能顯示為:
不同的視覺風格:3D邊框,圓柱,動畫人網
著色:6種不同的調色板
顯示速度箭頭
可視化的99%協方差橢圓
顯示軌跡ID,狀態(匹配,遮擋),相關檢測ID
當軌道被遮擋時可配置的不透明度降低
跟蹤歷史(軌跡)顯示為點或線
可配置的字體大小和線寬
以下所有屏幕截圖都是使用這些插件生成的。
以下屏幕截圖顯示我們的系統正在運行,同時從擁擠的機場環境播放記錄的數據:
人員檢測和跟蹤系統的視頻可以在SPENCER YouTube頻道上找到:
擁擠的機場環境中的實時多模態人物跟蹤(RGB-D和2D激光)
單人指導場景原型(僅限2D激光)
組指導情景原型(僅限2D激光)
在配有前后RGB-D傳感器(Asus Xtion Pro Live)和兩臺SICK LMS500激光掃描儀的SPENCER機器人平臺上,我們通過兩臺高端游戲筆記本電腦(Intel Core i7-4700MQ,nVidia GeForce 765M)。用于正面傳感器的檢測器與檢測融合管線一起在一臺筆記本電腦上執行。背面傳感器和人員和組跟蹤模塊的檢測器在第二臺筆記本電腦上執行。兩臺筆記本電腦通過千兆以太網互相連接,平臺的其余部分相互連接。
通過這種配置,組件可以實時運行在20-25 Hz(可視化卸載到單獨的計算機上),即使在擁擠的環境中也可以看到30多個人。
在Ubuntu 14.04 / ROS Indigo和Ubuntu 16.04 / ROS Kinetic上測試了人員和組檢測和跟蹤框架。有關機器人操作系統(ROS)的更多信息,請參閱ros.org。
注意:整個框架僅適用于64位系統。在32位系統上,您將遇到Eigen相關的對齊問題(失敗的斷言)。參見問題#1
由于我們目前還沒有提供任何預先構建的Debian軟件包,因此您必須從源代碼構建我們的框架。作為第一步,創建一個新的catkin工作區的文件夾,并將GitHub存儲庫克隆到子文件夾中src:
cd ~/Code
mkdir -p spencer-people-tracking-ws/src
cd spencer-people-tracking-ws/src
git clone https://github.com/spencer-project/spencer_people_tracking.git
假設您已經安裝了ROS Indigo或ROS Kinetic,我們建議您通過以下方式安裝我們的框架所需的依賴關系:
rosdep update
rosdep install -r --from-paths . --ignore-src
接下來,我們建議使用catkin(可通過sudo apt-get install python-catkin-tools)設置工作區:
cd ..
catkin config --init --cmake-args -DCMAKE_BUILD_TYPE=RelWithDebInfo
最后,通過以下方式構建所有包:
catkin build -c -s
構建工作區后,通過以下方式提供:
source devel/setup.bash
使用的cudaHOG庫rwth_ground_hog需要使用nVidia顯卡和已安裝的CUDA SDK(推薦版本為6.5)。由于安裝CUDA(特別是在使用Optimus / Bumblebee的筆記本電腦上)并且編譯庫并不簡單,因此在此提供了安裝說明。一旦遵循了這些說明,rwth_ground_hog需要使用catkin?重建包。如果沒有安裝CUDA SDK,則ROS程序包仍將編譯,但不會提供任何功能。
以下演示和三個教程可幫助您輕松開始使用我們的框架。
可以通過運行下載具有2D激光和RGB-D傳感器數據來測試我們框架的簡短示例性袋子文件
rosrun spencer_people_tracking_launch download_example_bagfiles.sh
然后,您可以啟動
roslaunch spencer_people_tracking_launch tracking_on_bagfile.launch
這將開始播放一個bagfile(一旦按SPACE下來取消暫停)并運行Rviz進行可視化。
作為基于深度模板的上身檢測器的替代方案,您可以選擇從點云庫中使用我們稍微修改的人物檢測器版本。在使用HOG SVM驗證候選ROI之前,該檢測器首先執行歐氏距離聚類和頭次集群提取。要這樣做,傳遞use_pcl_detector:=true到啟動文件。
如果您已經編譯了cudaHOG庫(參見上面的說明),您可以選擇通過傳送use_hog_detector:=true到啟動文件來啟用groundHOG檢測器。檢測到檢測融合流水線將自動融合來自兩個檢測器的檢測。
這是開始使用本地連接到計算機的單個RGB-D傳感器的最簡單方法。將您的Asus Xtion Pro Live傳感器水平放置在平面上,并將其連接到計算機(或播放下面進一步鏈接的示例袋子文件)。然后從您的人員跟蹤工作區中運行以下啟動文件(確保您已經提供了它,例如source devel/setup.bash):
roslaunch spencer_people_tracking_launch tracking_single_rgbd_sensor.launch height_above_ground:=1.6
這將執行以下操作:
啟動OpenNi2驅動程序(Asus Xtion Pro),并在/spencer/sensors/rgbd_front_top/相機命名空間中發布RGB-D點云
運行上身RGB-D探測器,假設在傳感器下方1.6米處有一個水平地平面。其他高度也可以工作,但檢測器已經在大約這個高度被訓練。
運行一個簡單的檢測到檢測融合流水線
運行srl_nearest_neighbor_tracker,它將訂閱/spencer/perception/detected_persons和發布軌道/spencer/perception/tracked_persons
使用預定義的配置運行RViz,該配置顯示點云,傳感器的視圖平截頭體以及檢測到和跟蹤的人員(使用我們的定制RViz插件)。
原始的MS Kinect v1傳感器不支持OpenNi2。在這種情況下,請附加use_openni1:=true到上述命令行的啟動文件以備份到OpenNi1。
如果您看不到任何檢測邊界框,請先檢查點云是否正確顯示在RViz中。如果沒有,您的RGB-D傳感器可能有問題(USB或OpenNi問題)。
要嘗試類似于SPENCER機器人平臺的傳感器配置,請運行:
roslaunch spencer_people_tracking_launch tracking_on_robot.launch
這假設RGB-D傳感器水平安裝在地面以上約1.6m處,傳感器數據將在以下主題上公布:
/spencer/sensors/laser_front/echo0 [sensor_msgs/LaserScan]
/spencer/sensors/laser_rear/echo0 [sensor_msgs/LaserScan]
/spencer/sensors/rgbd_front_top/{rgb/image_raw,depth/image_rect} [sensor_msgs/Image]
/spencer/sensors/rgbd_front_top/{rgb/camera_info} [sensor_msgs/CameraInfo]
/spencer/sensors/rgbd_rear_top/{rgb/image_raw,depth/image_rect} [sensor_msgs/Image]
/spencer/sensors/rgbd_rear_top/{rgb/camera_info} [sensor_msgs/CameraInfo]
啟動文件啟動一個類似于教程1(上圖)的管道,但是包括用于后部傳感器的第二組RGB-D探測器,以及兩個2D激光掃描儀的人員探測器。發布上述RGB-D和激光數據的傳感器驅動程序不會由此啟動文件自動啟動。此外,您手動必須啟動Rviz。
請注意,如果只有人檢測器的一部分運行,則融合管線會自動重新配置。如果你沒有后面的RGB-D傳感器,只需注釋掉包含rear_rgbd_detectors.launch在里面的行tracking_on_robot.launch。
啟動自己的啟動文件以啟動人員檢測器,或使用我們提供的啟動文件的組合spencer_people_tracking_launch/launch/detectors。您可能需要根據需要重新輸入和輸出主題。
創建副本detection_to_detection_fusion_pipeline.launch及其子女,如fuse_lasers_and_rgbd.launch在spencer_detected_person_association。基于所提供的示例,創建自己的管道,分步地對來自不同檢測器的檢測進行融合。有關更多信息,請參閱相應的包。
創建freiburg_people_tracking.launch文件的副本spencer_people_tracking_launch。調整它是指您自己的融合啟動文件在步驟2中創建。
開始你的副本freiburg_people_tracking.launch。
如果需要,通過啟動組跟蹤roslaunch spencer_people_tracking_launch group_tracking.launch。
我們的ICRA 2016論文的多模態“運動捕捉”序列可根據要求提供,讓您在我們的數據集上評估自己的檢測/跟蹤算法。為了公平的比較,請盡可能使用此存儲庫中包含的CLEAR-MOT指標實現。由于隱私原因,機場序列的原始數據不能共享,盡管我們可能會在稍后提供提取的檢測。
該存儲庫中的軟件由以下機構維護:
Timm Linder,社會機器人實驗室,弗萊堡艾伯特 - 路德維希大學
亞琛大學計算機視覺系Stefan?Breuers
這項工作得到EC根據合同號FP7-ICT-600877(SPENCER)的支持。如果您使用此存儲庫中包含的軟件進行研究,請引用以下出版物:
關于在非常擁擠和動態環境中的移動平臺的多模態人員跟蹤
Linder,T.,Breuers,S.,Leibe,B.,Arras,KO
IEEE國際機器人與自動化大會(ICRA)2016
也可以:
人機檢測,跟蹤和可視化使用ROS在移動服務機器人
Linder,T.和Arras,KO
機器人操作系統(ROS):完整參考(第1卷)。
Springer系統,決策和控制研究,2016年
該存儲庫中的大多數軟件都是根據BSD許可證發布的。但是,有關詳細信息,請查看各個ROS包。
[1] Linder T.和Arras KO?多模型假設跟蹤RGB-D數據中的人群。IEEE Int。會議信息融合(FUSION'14),薩拉曼卡,西班牙,2014年。
[2] Jafari O. Hosseini和Mitzel D.和Leibe B。基于移動機器人和頭戴式相機的實時RGB-D人檢測和跟蹤。IEEE國際機器人與自動化大會(ICRA'14),2014年。
[3] Arras KO和Martinez Mozos O.和Burgard W ..?使用增強特征來檢測2D范圍數據中的人。IEEE國際機器人與自動化大會(ICRA'07),意大利羅馬2007年。
[4] Munaro M.和Menegatti E.?快速RGB-D人跟蹤服務機器人。自主機器人,第37卷第3期,第227-242頁,Springer,2014。
----
制圖ROS集成
目的
制圖師是一種在多平臺和傳感器配置中在2D和3D?中提供實時同時定位和映射(SLAM)的系統。該項目提供制圖工具的ROS整合。
入門
在我們閱讀文檔網站時學習使用制圖師與ROS?。
請加入郵件列表并提出問題。
特約
您可以在我們的貢獻頁面上找到有關制圖師ROS整合的信息。
----
AutoRally
AutoRally研究平臺軟件。
自動平臺網站
AutoRally Youtube頻道
研究頁面AutoRally與:
http://rehg.org/autorally
http://dcsl.gatech.edu/research-muri-nascar.html
http://acds-lab.gatech.edu/Research.html
特約
我們歡迎錯誤修復,增強功能,新功能和反饋!
請將提交請求提交給符合ROS C ++樣式指南的devel分支。我們使用Gitflow,所以主分支保留發布。
安裝說明
內容
安裝先決條件
克隆版本庫
安裝自動ROS依賴關系
編譯/運行
生成文檔
模擬測試設置
1.安裝先決條件
安裝Ubuntu 14.04 64位
安裝所需的軟件包
sudo apt-get install git doxygen openssh-server libusb-dev texinfo
推薦工具
以下工具對于該項目是有用的,但不是必需的。
FEH
cutecom
cmake的-詛咒貴
香菜
突觸
Arduino的
蟒蛇,termcolor
安裝?ros-indigo-desktop-full
安裝gtsam
按照gtsam?快速入門指南,克隆并安裝gtsam?的開發分支。
而不是cmake ..使用:
cmake -DGTSAM_INSTALL_GEOGRAPHICLIB=ON -DGTSAM_WITH_EIGEN_MKL=OFF ..
一旦安裝完成,確保linux可以看到共享庫:
sudo ldconfig
克隆或叉庫
在catkin工作空間中獲取自動存儲庫。建議的位置是~/catkin_ws/src/,但任何有效的catkin worskspace源文件夾將工作。如果您正在使用代碼,我們建議先分一批。
要直接從AutoRally回購克隆:
git clone https://github.com/AutoRally/autorally.git
還將IMU代碼克隆到同一個catkin工作空間中:
git clone https://github.com/AutoRally/imu_3dm_gx4.git
3.安裝自動ROS依賴關系
在catkin工作區文件夾中,運行此命令來安裝該項目依賴的包。
rosdep install --from-path src --ignore-src -y
編譯運行
catkin_make從catkin工作空間文件夾編譯并安裝運行。
由于ROS分布式發射系統的額外要求,您必須運行
source src/autorally/autorally_util/setupEnvLocal.sh
之前使用任何AutoRally組件。有關如何為您的車輛平臺上的分布式發射設置此系統的更多信息,請參閱維基。
注意:如果您不熟悉catkin,請知道您必須運行source catkin_ws/devel/setup.sh,ROS將能夠找到自動包。這行可以添加到你的?/ .bashrc文件。
5.生成文檔
您可以生成或運行更新代碼文檔doxygen在autorally/。
查看autorally/doc/html/index.html在Web瀏覽器中打開的代碼文檔。
6.啟動AutoRally Simulation以測試配置
roslaunch autorally_gazebo autoRallyTrackGazeboSim.launch
您可以使用USB手柄來驅動模擬平臺。在啟動時,節點發布的runstop消息joystick是假的。按右鍵(通常標記為X,Y,A,B或正方形,三角形,X,圓圈)的任何按鈕可切換發布的值。
通過查看主題中的runstopMotionEnabled參數來驗證運行狀態運動是否啟用/chassisState。
如果您沒有使用游戲手柄,則必須為平臺移動配置另一個runstop信息源:
評論第93行?autorally_gazebo/launch/autoRallyTrackGazeboSim.launch
rosrun rqt_publisher rqt_publisher
和rqt_publisher配置來發布消息主題/runstop類型的autorally_msgs/runstop在1Hz與sender設置為rqt_publisher和motionEnabled設置為真。
驗證runstopMotionEnabled是真實的/chassisState話題。
7.自主駕駛模擬
在本節結尾,機器人將使用可用的控制器在模擬中自主駕駛autorally_control。
將機器人定位在與模擬開始時相同的位置,并確保啟動運行停止運動(設置為true)。
在autorally_core/launch/state_estimator.launch變化InvertY和InvertZ對假,則:
rosparam set /gps_imu/FixedInitialPose true
roslaunch autorally_core state_estimator.launch
roslaunch autorally_control waypointFollower.launch
roslaunch autorally_control constantSpeedController.launch
rosrun rqt_publisher rqt_publisher
配置發布商constantSpeedController/speedCommand的類型std_msgs/Float64為10的價格為3(您可以調整他的價值一旦一切正在運行)。該值是以m / s為單位的目標速度,只要您執行此操作,平臺應在移動啟用時移動。
如果機器人轉動并擊中障礙物,可能是因為狀態估計器沒有收斂,所以它的方向估計是不正確的。只需選擇軌道障礙并將其移動以允許機器人繼續駕駛,并且估計器應該收斂,并且車輛將返回到障礙物內。
下一步是什么
有關控制器和狀態估計器的更詳細的解釋可以在wiki上找到:
狀態估計器
航點跟隨者
恒速控制器
控制AutoRally平臺是您自己的控制器如何控制AutoRally平臺(在模擬或硬件上)的教程。
如果您正在配置物理AutoRally平臺,則下一步是配置計算框,所有外設和啟動系統。這些說明在“?平臺配置說明”中找到。
----
IAI Kinect2
維護者
Thiemo Wiedemeyer?,不萊梅大學人工智能研究所
先閱讀
在提出問題之前,請仔細閱讀本README和各個組件的內容。我們得到很多重復的問題,所以當你有問題時,我們敦促大家檢查github問題(包括關閉的)。你的問題很可能已經在討論過了。
該項目的目標是給您一個驅動程序和從Kinect-2傳感器接收數據所需的工具,以一種有用的機器人技術。您仍然需要知道如何使用ROS來使用它。請遵循ROS教程。您還需要學習如何使用點云,深度云或圖像(計算機視覺)來處理數據。
注意:?有關?iai_kinect2軟件包及其組件的?問題,請使用GitHub問題。不要寫郵件
目錄
描述
常問問題
依賴
安裝
GPU加速
OpenCL與AMD
OpenCL / CUDA與Nvidia
OpenCL與Intel
引文
截圖
描述
這是用于Kinect One(Kinect v2)的ROS接口的工具和庫的集合。
它包含:
用于將Kinect One的紅外傳感器校準到RGB傳感器的校準工具和深度測量
一個用于深入注冊OpenCL支持的庫
libfreenect2和ROS之間的橋梁
圖像/點云的查看器
常問問題
首先你應該看看這個FAQ和libfreenect2的FAQ。其次,從libfreenect2的問題頁面和iai_kinect2的問題頁面看類似的問題和解決方案。
點云僅在使用啟動文件時發布。確保啟動kinect2_bridge?roslaunch kinect2_bridge kinect2_bridge.launch。
簡答:不。
長的答案:是的,可以使用OpenCV 3.0編譯這個包,但是它不會工作。這是因為使用了cv_bridge,它本身在ROS Indigo / Jade中使用OpenCV 2.4.x進行編譯,并且無法與OpenCV版本進行鏈接。OpenCV 3.0的工作支持可能會帶來未來的ROS版本。
有很多原因kinect2_bridge可能不工作。首先要找出問題是否與kinect2_bridge或libfreenect2。一個很好的測試工具是Protonect它位于的二進制文件libfreenect2/build/bin/Protonect。它直接使用libfreenect2,對其他庫的依賴性最小,因此它是第一個測試的好工具。
執行:
./Protonect gl?測試OpenGL支持。
./Protonect cl?測試OpenCL支持。
./Protonect cpu?測試CPU支持。
運行前kinect2_bridge請確保Protonect正在工作,并顯示顏色,深度和圖像。如果其中有些是黑色的,那么有一個與此無關的問題kinect2_bridge,您應該從libfreenect2 GitHub頁面中查看有關幫助的問題。
如果其中一人的作品,嘗試與工作的一個kinect2_bridge:rosrun kinect2_bridge kinect2_bridge _depth_method:=
如果是這樣的話,你必須確保Protonect使用相同版本libfreenect2的kinect2_bridge一樣。要做到這一點,運行make和sudo make install再次build文件夾中。再試kinect2_bridge一次。
cd libfreenect2/build
make & sudo make install
還要確保你沒有使用OpenCV 3.0。
如果仍然崩潰,請在調試中編譯并運行gdb:
cd
catkin_make -DCMAKE_BUILD_TYPE="Debug"
cd devel/lib/kinect2_bridge
gdb kinect2_bridge
// inside gdb: run until it crashes and do a backtrace
run
bt
quit
打開一個問題,并發布問題描述和backtrace(bt)的輸出。
這是正常的行為。'kinect2_bridge'僅在客戶端連接時處理數據(ROS節點至少聽到一個主題)。這樣可以節省CPU和GPU資源。一旦開始kinect_viewer或rostopic hz其中一個主題,處理應該開始。
rosdep將輸出錯誤無法找到[kinect2_bridge]和[kinect2_registration]。這很好,因為它們都是iai_kinect2包的一部分,rosdep不知道這些包。
這表示USB連接有問題。
首先,檢查GitHub上的問題頁面是否有類似的問題,因為它們可能包含它們的解決方案。默認情況下,您只會看到公開的問題,但是如果您點擊,closed您將會解決這些問題。還有一個搜索字段幫助找到類似的問題。
如果您沒有發現問題的解決方案,請隨時為您的問題開辟新的問題。請詳細說明您的問題,并提供錯誤信息和日志輸出。
依賴
ROS Hydro / Indigo
OpenCV(2.4.x,推薦使用官方Ubuntu存儲庫)
PCL(1.7.x,推薦使用官方Ubuntu存儲庫中的一個)
特征(可選,但推薦)
OpenCL(可選,但推薦)
libfreenect2(> = v0.2.0,用于穩定性檢出最新的穩定版本)
安裝
安裝ROS?Ubuntu 14.04的說明
設置您的ROS環境
安裝libfreenect2:
按照說明操作,并使用C ++ 11?cmake .. -DENABLE_CXX11=ON代替cmake ..
如果某些事情不起作用,請查看最新的穩定版本git checkout v0.2.0。
將此存儲庫克隆到您的catkin工作空間中,安裝依賴項并構建它:
cd?/ catkin_ws / src / git clone?https://github.com/code-iai/iai_kinect2.git?cd iai_kinect2 rosdep install -r --from-paths。cd?/ catkin_ws catkin_make -DCMAKE_BUILD_TYPE =“Release”
*Note: `rosdep` will output errors on not being able to locate `[kinect2_bridge]` and `[depth_registration]`.
That is fine because they are all part of the iai_kinect2 package and `rosdep` does not know these packages.*
*Note: If you installed libfreenect2 somewhere else than in `$HOME/freenect2` or a standard location like `/usr/local`
you have to specify the path to it by adding `-Dfreenect2_DIR=path_to_freenect2/lib/cmake/freenect2` to `catkin_make`.*
5. Connect your sensor and run `kinect2_bridge`:
roslaunch kinect2_bridge kinect2_bridge.launch
6. Calibrate your sensor using the `kinect2_calibration`. [Further details](kinect2_calibration#calibrating-the-kinect-one)
7. Add the calibration files to the `kinect2_bridge/data/
8. Restart `kinect2_bridge` and view the results using `rosrun kinect2_viewer kinect2_viewer kinect2 sd cloud`.
## GPU acceleration
### OpenCL with AMD
Install the latest version of the AMD Catalyst drivers from https://support.amd.com and follow the instructions. Also install `opencl-headers`.
sudo apt-get install opencl-headers
### OpenCL/CUDA with Nvidia
Go to [developer.nvidia.com/cuda-downloads](https://developer.nvidia.com/cuda-downloads) and select `linux`, `x86_64`, `Ubuntu`, `14.04`, `deb(network)`.
Download the file and follow the instructions. Also install `nvidia-modprobe` and `opencl-headers`.
sudo apt-get install nvidia-modprobe opencl-headers
You also need to add CUDA paths to the system environment, add these lines to you `~/.bashrc`:
export LD_LIBRARY_PATH =“/ usr / local / cuda / lib64:$ {LD_LIBRARY_PATH}”export PATH =“/ usr / local / cuda / bin:$ {PATH}”
A system-wide configuration of the libary path can be created with the following commands:
echo“/ usr / local / cuda / lib64”|?sudo tee /etc/ld.so.conf.d/cuda.conf sudo ldconfig
### OpenCL with Intel
You can either install a binary package from a PPA like [ppa:floe/beignet](https://launchpad.net/~floe/+archive/ubuntu/beignet), or build beignet yourself.
It's recommended to use the binary from the PPA.
sudo add-apt-repository ppa:floe / beignet && sudo apt-get update sudo apt-get install beignet beignet-dev opencl-headers
## Citation
If you used `iai_kinect2` for your work, please cite it.
```tex
@misc{iai_kinect2,
author = {Wiedemeyer, Thiemo},
title = {{IAI Kinect2}},
organization = {Institute for Artificial Intelligence},
address = {University Bremen},
year = {2014 -- 2015},
howpublished = {\url{https://github.com/code-iai/iai\_kinect2}},
note = {Accessed June 12, 2015}
}
結果應該與此類似(可能取決于所使用的參考書目風格):
T. Wiedemeyer, “IAI Kinect2,” https://github.com/code-iai/iai_kinect2,
Institute for Artificial Intelligence, University Bremen, 2014 – 2015,
accessed June 12, 2015.
截圖
以下是我們的工具包的截圖:
----
最后列一些參考書籍:
掌握機器人編程的ROS
買書
PACKT
Amazon.com
Amazon.in
Lentin約瑟夫
安裝
該代碼可與ROS Jade和ROS Indigo相兼容。本書提到了每個包的詳細安裝說明
教程
第1章:?ROS及其軟件包管理簡介
第2章:在ROS中使用3D機器人建模
第3章:使用ROS和涼亭模擬機器人
第4章:使用ROS MoveIt!和導航堆棧
第5章:使用Pluginlib,Node和Gazebo插件
第6章:編寫ROS控制器和可視化插件
第7章:將I / O板,傳感器和執行器連接到ROS
第8章:使用ROS,Open-CV和PCL編程視覺傳感器
第9章:構建和接口ROS中的差分驅動器移動機器人硬件
第10章:探索ROS-MoveIt的高級功能!
第11章:工業機器人的ROS
第12章:ROS中的故障排除和最佳實踐
ROS機器人項目
買書
PACKT
Amazon.com
Amazon.in
Lentin約瑟夫
安裝
該代碼可與ROS Kinetic和ROS Indigo合作。本書提到了每個包的詳細安裝說明
教程
第1章:?ROS Robotics應用開發入門
第2章:使用ROS,OpenCV和Dynamixel Servos進行人臉檢測和跟蹤
第3章:在ROS中構建一個Siri-like Chatbot
第4章:使用ROS控制嵌入式電路板
第5章:使用手勢遠程操作機器人
第6章:對象檢測和識別
第7章:使用ROS和TensorFlow深入學習
第8章:MATLAB和Android上的ROS
第9章:構建自主移動機器人
第10章:使用ROS創建自駕車!
第11章:使用VR耳機和跳躍運動的遠程操作機器人
第12章:通過網絡控制機器人
使用Python學習機器人
買書
PACKT
Amazon.com
Amazon.in
Lentin約瑟夫
安裝
該代碼可與ROS Jade和ROS Indigo相兼容。本書提到了每個包的詳細安裝說明
教程
第1章:機器人介紹
第2章:機器人的機械設計
第3章:使用ROS和涼亭進行機器人模擬
第4章:設計Chefbot硬件
第5章:使用機器人執行器和車輪編碼器
第6章:使用機器人傳感器
第7章:使用Python和ROS編程視覺傳感器
第8章:使用Python和ROS進行語音識別和綜合
第9章:使用Python將人工智能應用于Chefbot
第10章:使用Python來整合Chefbot硬件并將其與ROS進行連接
第11章:使用QT和Python為機器人設計GUI
第12章:Chefbot的校準和測試
----
交通智能體 華為開源鏡像站 Mirrors 自動駕駛
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。