ps_roi_align¶
- torchvision.ops.ps_roi_align(input: Tensor, boxes: Tensor, output_size: int, spatial_scale: float = 1.0, sampling_ratio: int = - 1) Tensor[源]¶
執行 Light-Head R-CNN 中提到的位置敏感區域(RoI)對齊(Align)操作。
- 引數:
input (Tensor[N, C, H, W]) – 輸入張量,即包含
N個元素的批次。每個元素包含維度為H x W的C個特徵圖。boxes (Tensor[K, 5] 或 List[Tensor[L, 4]]) – 邊界框座標,格式為 (x1, y1, x2, y2),表示將從中提取區域的位置。座標必須滿足
0 <= x1 < x2和0 <= y1 < y2。如果傳入單個 Tensor,則第一列應包含批次中相應元素的索引,即介於[0, N - 1]之間的數字。如果傳入 Tensor 列表,則每個 Tensor 對應批次中元素 i 的邊界框。output_size (int 或 Tuple[int, int]) – 池化操作後的輸出尺寸(以 bin 或畫素為單位),格式為 (height, width)。
spatial_scale (float) – 將邊界框座標對映到輸入座標的縮放因子。例如,如果您的邊界框是基於 224x224 影像定義的,而您的輸入是 112x112 的特徵圖(由原始影像縮放 0.5 倍得到),您會希望將此值設定為 0.5。預設值:1.0
sampling_ratio (int) – 插值網格中的取樣點數量,用於計算每個池化輸出 bin 的輸出值。如果 > 0,則每個 bin 恰好使用
sampling_ratio x sampling_ratio個取樣點。如果 <= 0,則使用自適應數量的網格點(計算方式為ceil(roi_width / output_width),高度同理)。預設值:-1
- 返回值:
池化後的 RoI
- 返回型別:
Tensor[K, C / (output_size[0] * output_size[1]), output_size[0], output_size[1]]