Merge branch 'octeontx2-vf-Add-network-driver-for-virtual-function'
Sunil Goutham says: ==================== octeontx2-vf: Add network driver for virtual function This patch series adds network driver for the virtual functions of OcteonTX2 SOC's resource virtualization unit (RVU). Changes from v3: * Removed missed out EXPORT symbols in VF driver. Changes from v2: * Removed Copyright license text. * Removed wrapper fn()s around mutex_lock and unlock. * Got rid of using macro with 'return'. * Removed __weak fn()s. - Sugested by Leon Romanovsky and Andrew Lunn Changes from v1: * Removed driver version and fixed authorship * Removed driver version and fixed authorship in the already upstreamed AF, PF drivers. * Removed unnecessary checks in sriov_enable and xmit fn()s. * Removed WQ_MEM_RECLAIM flag while creating workqueue. * Added lock in tx_timeout task. * Added 'supported_coalesce_params' in ethtool ops. * Minor other cleanups. - Sugested by Jakub Kicinski ==================== Acked-by: Jakub Kicinski <kuba@kernel.org> Signed-off-by: David S. Miller <davem@davemloft.net>
This commit is contained in:
commit
08e8b91c44
@ -33,3 +33,9 @@ config OCTEONTX2_PF
|
||||
depends on PCI
|
||||
help
|
||||
This driver supports Marvell's OcteonTX2 NIC physical function.
|
||||
|
||||
config OCTEONTX2_VF
|
||||
tristate "Marvell OcteonTX2 NIC Virtual Function driver"
|
||||
depends on OCTEONTX2_PF
|
||||
help
|
||||
This driver supports Marvell's OcteonTX2 NIC virtual function.
|
||||
|
@ -21,7 +21,6 @@
|
||||
|
||||
#define DRV_NAME "octeontx2-af"
|
||||
#define DRV_STRING "Marvell OcteonTX2 RVU Admin Function Driver"
|
||||
#define DRV_VERSION "1.0"
|
||||
|
||||
static int rvu_get_hwvf(struct rvu *rvu, int pcifunc);
|
||||
|
||||
@ -46,10 +45,9 @@ static const struct pci_device_id rvu_id_table[] = {
|
||||
{ 0, } /* end of table */
|
||||
};
|
||||
|
||||
MODULE_AUTHOR("Marvell International Ltd.");
|
||||
MODULE_AUTHOR("Sunil Goutham <sgoutham@marvell.com>");
|
||||
MODULE_DESCRIPTION(DRV_STRING);
|
||||
MODULE_LICENSE("GPL v2");
|
||||
MODULE_VERSION(DRV_VERSION);
|
||||
MODULE_DEVICE_TABLE(pci, rvu_id_table);
|
||||
|
||||
static char *mkex_profile; /* MKEX profile name */
|
||||
|
@ -4,7 +4,9 @@
|
||||
#
|
||||
|
||||
obj-$(CONFIG_OCTEONTX2_PF) += octeontx2_nicpf.o
|
||||
obj-$(CONFIG_OCTEONTX2_VF) += octeontx2_nicvf.o
|
||||
|
||||
octeontx2_nicpf-y := otx2_pf.o otx2_common.o otx2_txrx.o otx2_ethtool.o
|
||||
octeontx2_nicvf-y := otx2_vf.o
|
||||
|
||||
ccflags-y += -I$(srctree)/drivers/net/ethernet/marvell/octeontx2/af
|
||||
|
@ -49,15 +49,15 @@ void otx2_update_lmac_stats(struct otx2_nic *pfvf)
|
||||
if (!netif_running(pfvf->netdev))
|
||||
return;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_cgx_stats(&pfvf->mbox);
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return;
|
||||
}
|
||||
|
||||
otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
}
|
||||
|
||||
int otx2_update_rq_stats(struct otx2_nic *pfvf, int qidx)
|
||||
@ -128,6 +128,7 @@ void otx2_get_stats64(struct net_device *netdev,
|
||||
stats->tx_packets = dev_stats->tx_frames;
|
||||
stats->tx_dropped = dev_stats->tx_drops;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_get_stats64);
|
||||
|
||||
/* Sync MAC address with RVU AF */
|
||||
static int otx2_hw_set_mac_addr(struct otx2_nic *pfvf, u8 *mac)
|
||||
@ -135,17 +136,17 @@ static int otx2_hw_set_mac_addr(struct otx2_nic *pfvf, u8 *mac)
|
||||
struct nix_set_mac_addr *req;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_nix_set_mac_addr(&pfvf->mbox);
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
ether_addr_copy(req->mac_addr, mac);
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -157,27 +158,27 @@ static int otx2_hw_get_mac_addr(struct otx2_nic *pfvf,
|
||||
struct msg_req *req;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_nix_get_mac_addr(&pfvf->mbox);
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
if (err) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
msghdr = otx2_mbox_get_rsp(&pfvf->mbox.mbox, 0, &req->hdr);
|
||||
if (IS_ERR(msghdr)) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return PTR_ERR(msghdr);
|
||||
}
|
||||
rsp = (struct nix_get_mac_addr_rsp *)msghdr;
|
||||
ether_addr_copy(netdev->dev_addr, rsp->mac_addr);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
|
||||
return 0;
|
||||
}
|
||||
@ -197,26 +198,25 @@ int otx2_set_mac_address(struct net_device *netdev, void *p)
|
||||
|
||||
return 0;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_set_mac_address);
|
||||
|
||||
int otx2_hw_set_mtu(struct otx2_nic *pfvf, int mtu)
|
||||
{
|
||||
struct nix_frs_cfg *req;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_nix_set_hw_frs(&pfvf->mbox);
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
/* SMQ config limits maximum pkt size that can be transmitted */
|
||||
req->update_smq = true;
|
||||
pfvf->max_frs = mtu + OTX2_ETH_HLEN;
|
||||
req->maxlen = pfvf->max_frs;
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -225,7 +225,10 @@ int otx2_config_pause_frm(struct otx2_nic *pfvf)
|
||||
struct cgx_pause_frm_cfg *req;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
if (is_otx2_lbkvf(pfvf->pdev))
|
||||
return 0;
|
||||
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_cgx_cfg_pause_frm(&pfvf->mbox);
|
||||
if (!req) {
|
||||
err = -ENOMEM;
|
||||
@ -238,7 +241,7 @@ int otx2_config_pause_frm(struct otx2_nic *pfvf)
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
unlock:
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -248,10 +251,10 @@ int otx2_set_flowkey_cfg(struct otx2_nic *pfvf)
|
||||
struct nix_rss_flowkey_cfg *req;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
req = otx2_mbox_alloc_msg_nix_rss_flowkey_cfg(&pfvf->mbox);
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
req->mcam_index = -1; /* Default or reserved index */
|
||||
@ -259,7 +262,7 @@ int otx2_set_flowkey_cfg(struct otx2_nic *pfvf)
|
||||
req->group = DEFAULT_RSS_CONTEXT_GROUP;
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -270,7 +273,7 @@ int otx2_set_rss_table(struct otx2_nic *pfvf)
|
||||
struct nix_aq_enq_req *aq;
|
||||
int idx, err;
|
||||
|
||||
otx2_mbox_lock(mbox);
|
||||
mutex_lock(&mbox->lock);
|
||||
/* Get memory to put this msg */
|
||||
for (idx = 0; idx < rss->rss_size; idx++) {
|
||||
aq = otx2_mbox_alloc_msg_nix_aq_enq(mbox);
|
||||
@ -280,12 +283,12 @@ int otx2_set_rss_table(struct otx2_nic *pfvf)
|
||||
*/
|
||||
err = otx2_sync_mbox_msg(mbox);
|
||||
if (err) {
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return err;
|
||||
}
|
||||
aq = otx2_mbox_alloc_msg_nix_aq_enq(mbox);
|
||||
if (!aq) {
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
}
|
||||
@ -298,7 +301,7 @@ int otx2_set_rss_table(struct otx2_nic *pfvf)
|
||||
aq->op = NIX_AQ_INSTOP_INIT;
|
||||
}
|
||||
err = otx2_sync_mbox_msg(mbox);
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -416,6 +419,7 @@ void otx2_tx_timeout(struct net_device *netdev, unsigned int txq)
|
||||
|
||||
schedule_work(&pfvf->reset_task);
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_tx_timeout);
|
||||
|
||||
void otx2_get_mac_from_af(struct net_device *netdev)
|
||||
{
|
||||
@ -430,6 +434,7 @@ void otx2_get_mac_from_af(struct net_device *netdev)
|
||||
if (!is_valid_ether_addr(netdev->dev_addr))
|
||||
eth_hw_addr_random(netdev);
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_get_mac_from_af);
|
||||
|
||||
static int otx2_get_link(struct otx2_nic *pfvf)
|
||||
{
|
||||
@ -465,7 +470,7 @@ int otx2_txschq_config(struct otx2_nic *pfvf, int lvl)
|
||||
/* Set topology e.t.c configuration */
|
||||
if (lvl == NIX_TXSCH_LVL_SMQ) {
|
||||
req->reg[0] = NIX_AF_SMQX_CFG(schq);
|
||||
req->regval[0] = ((pfvf->netdev->mtu + OTX2_ETH_HLEN) << 8) |
|
||||
req->regval[0] = ((OTX2_MAX_MTU + OTX2_ETH_HLEN) << 8) |
|
||||
OTX2_MIN_MTU;
|
||||
|
||||
req->regval[0] |= (0x20ULL << 51) | (0x80ULL << 39) |
|
||||
@ -551,17 +556,17 @@ int otx2_txschq_stop(struct otx2_nic *pfvf)
|
||||
struct nix_txsch_free_req *free_req;
|
||||
int lvl, schq, err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
/* Free the transmit schedulers */
|
||||
free_req = otx2_mbox_alloc_msg_nix_txsch_free(&pfvf->mbox);
|
||||
if (!free_req) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
free_req->flags = TXSCHQ_FREE_ALL;
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
|
||||
/* Clear the txschq list */
|
||||
for (lvl = 0; lvl < NIX_TXSCH_LVL_CNT; lvl++) {
|
||||
@ -575,17 +580,19 @@ void otx2_sqb_flush(struct otx2_nic *pfvf)
|
||||
{
|
||||
int qidx, sqe_tail, sqe_head;
|
||||
u64 incr, *ptr, val;
|
||||
int timeout = 1000;
|
||||
|
||||
ptr = (u64 *)otx2_get_regaddr(pfvf, NIX_LF_SQ_OP_STATUS);
|
||||
for (qidx = 0; qidx < pfvf->hw.tx_queues; qidx++) {
|
||||
incr = (u64)qidx << 32;
|
||||
while (1) {
|
||||
while (timeout) {
|
||||
val = otx2_atomic64_add(incr, ptr);
|
||||
sqe_head = (val >> 20) & 0x3F;
|
||||
sqe_tail = (val >> 28) & 0x3F;
|
||||
if (sqe_head == sqe_tail)
|
||||
break;
|
||||
usleep_range(1, 3);
|
||||
timeout--;
|
||||
}
|
||||
}
|
||||
}
|
||||
@ -981,6 +988,7 @@ void otx2_aura_pool_free(struct otx2_nic *pfvf)
|
||||
qmem_free(pfvf->dev, pool->fc_addr);
|
||||
}
|
||||
devm_kfree(pfvf->dev, pfvf->qset.pool);
|
||||
pfvf->qset.pool = NULL;
|
||||
}
|
||||
|
||||
static int otx2_aura_init(struct otx2_nic *pfvf, int aura_id,
|
||||
@ -1248,10 +1256,10 @@ int otx2_detach_resources(struct mbox *mbox)
|
||||
{
|
||||
struct rsrc_detach *detach;
|
||||
|
||||
otx2_mbox_lock(mbox);
|
||||
mutex_lock(&mbox->lock);
|
||||
detach = otx2_mbox_alloc_msg_detach_resources(mbox);
|
||||
if (!detach) {
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
@ -1260,9 +1268,10 @@ int otx2_detach_resources(struct mbox *mbox)
|
||||
|
||||
/* Send detach request to AF */
|
||||
otx2_mbox_msg_send(&mbox->mbox, 0);
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return 0;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_detach_resources);
|
||||
|
||||
int otx2_attach_npa_nix(struct otx2_nic *pfvf)
|
||||
{
|
||||
@ -1270,11 +1279,11 @@ int otx2_attach_npa_nix(struct otx2_nic *pfvf)
|
||||
struct msg_req *msix;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
/* Get memory to put this msg */
|
||||
attach = otx2_mbox_alloc_msg_attach_resources(&pfvf->mbox);
|
||||
if (!attach) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
@ -1284,7 +1293,7 @@ int otx2_attach_npa_nix(struct otx2_nic *pfvf)
|
||||
/* Send attach request to AF */
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
if (err) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
||||
@ -1299,16 +1308,16 @@ int otx2_attach_npa_nix(struct otx2_nic *pfvf)
|
||||
/* Get NPA and NIX MSIX vector offsets */
|
||||
msix = otx2_mbox_alloc_msg_msix_offset(&pfvf->mbox);
|
||||
if (!msix) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
if (err) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
|
||||
if (pfvf->hw.npa_msixoff == MSIX_VECTOR_INVALID ||
|
||||
pfvf->hw.nix_msixoff == MSIX_VECTOR_INVALID) {
|
||||
@ -1319,12 +1328,13 @@ int otx2_attach_npa_nix(struct otx2_nic *pfvf)
|
||||
|
||||
return 0;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_attach_npa_nix);
|
||||
|
||||
void otx2_ctx_disable(struct mbox *mbox, int type, bool npa)
|
||||
{
|
||||
struct hwctx_disable_req *req;
|
||||
|
||||
otx2_mbox_lock(mbox);
|
||||
mutex_lock(&mbox->lock);
|
||||
/* Request AQ to disable this context */
|
||||
if (npa)
|
||||
req = otx2_mbox_alloc_msg_npa_hwctx_disable(mbox);
|
||||
@ -1332,7 +1342,7 @@ void otx2_ctx_disable(struct mbox *mbox, int type, bool npa)
|
||||
req = otx2_mbox_alloc_msg_nix_hwctx_disable(mbox);
|
||||
|
||||
if (!req) {
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
return;
|
||||
}
|
||||
|
||||
@ -1342,7 +1352,7 @@ void otx2_ctx_disable(struct mbox *mbox, int type, bool npa)
|
||||
dev_err(mbox->pfvf->dev, "%s failed to disable context\n",
|
||||
__func__);
|
||||
|
||||
otx2_mbox_unlock(mbox);
|
||||
mutex_unlock(&mbox->lock);
|
||||
}
|
||||
|
||||
int otx2_nix_config_bp(struct otx2_nic *pfvf, bool enable)
|
||||
@ -1387,6 +1397,7 @@ void mbox_handler_nix_txsch_alloc(struct otx2_nic *pf,
|
||||
pf->hw.txschq_list[lvl][schq] =
|
||||
rsp->schq_list[lvl][schq];
|
||||
}
|
||||
EXPORT_SYMBOL(mbox_handler_nix_txsch_alloc);
|
||||
|
||||
void mbox_handler_npa_lf_alloc(struct otx2_nic *pfvf,
|
||||
struct npa_lf_alloc_rsp *rsp)
|
||||
@ -1394,6 +1405,7 @@ void mbox_handler_npa_lf_alloc(struct otx2_nic *pfvf,
|
||||
pfvf->hw.stack_pg_ptrs = rsp->stack_pg_ptrs;
|
||||
pfvf->hw.stack_pg_bytes = rsp->stack_pg_bytes;
|
||||
}
|
||||
EXPORT_SYMBOL(mbox_handler_npa_lf_alloc);
|
||||
|
||||
void mbox_handler_nix_lf_alloc(struct otx2_nic *pfvf,
|
||||
struct nix_lf_alloc_rsp *rsp)
|
||||
@ -1404,6 +1416,7 @@ void mbox_handler_nix_lf_alloc(struct otx2_nic *pfvf,
|
||||
pfvf->hw.lso_tsov4_idx = rsp->lso_tsov4_idx;
|
||||
pfvf->hw.lso_tsov6_idx = rsp->lso_tsov6_idx;
|
||||
}
|
||||
EXPORT_SYMBOL(mbox_handler_nix_lf_alloc);
|
||||
|
||||
void mbox_handler_msix_offset(struct otx2_nic *pfvf,
|
||||
struct msix_offset_rsp *rsp)
|
||||
@ -1411,6 +1424,7 @@ void mbox_handler_msix_offset(struct otx2_nic *pfvf,
|
||||
pfvf->hw.npa_msixoff = rsp->npa_msixoff;
|
||||
pfvf->hw.nix_msixoff = rsp->nix_msixoff;
|
||||
}
|
||||
EXPORT_SYMBOL(mbox_handler_msix_offset);
|
||||
|
||||
void mbox_handler_nix_bp_enable(struct otx2_nic *pfvf,
|
||||
struct nix_bp_cfg_rsp *rsp)
|
||||
@ -1422,6 +1436,7 @@ void mbox_handler_nix_bp_enable(struct otx2_nic *pfvf,
|
||||
pfvf->bpid[chan_id] = rsp->chan_bpid[chan] & 0x3FF;
|
||||
}
|
||||
}
|
||||
EXPORT_SYMBOL(mbox_handler_nix_bp_enable);
|
||||
|
||||
void otx2_free_cints(struct otx2_nic *pfvf, int n)
|
||||
{
|
||||
|
@ -20,6 +20,8 @@
|
||||
|
||||
/* PCI device IDs */
|
||||
#define PCI_DEVID_OCTEONTX2_RVU_PF 0xA063
|
||||
#define PCI_DEVID_OCTEONTX2_RVU_VF 0xA064
|
||||
#define PCI_DEVID_OCTEONTX2_RVU_AFVF 0xA0F8
|
||||
|
||||
#define PCI_SUBSYS_DEVID_96XX_RVU_PFVF 0xB200
|
||||
|
||||
@ -191,6 +193,17 @@ struct otx2_hw {
|
||||
u64 cgx_tx_stats[CGX_TX_STATS_COUNT];
|
||||
};
|
||||
|
||||
struct otx2_vf_config {
|
||||
struct otx2_nic *pf;
|
||||
struct delayed_work link_event_work;
|
||||
bool intf_down; /* interface was either configured or not */
|
||||
};
|
||||
|
||||
struct flr_work {
|
||||
struct work_struct work;
|
||||
struct otx2_nic *pf;
|
||||
};
|
||||
|
||||
struct refill_work {
|
||||
struct delayed_work pool_refill_work;
|
||||
struct otx2_nic *pf;
|
||||
@ -215,14 +228,20 @@ struct otx2_nic {
|
||||
|
||||
/* Mbox */
|
||||
struct mbox mbox;
|
||||
struct mbox *mbox_pfvf;
|
||||
struct workqueue_struct *mbox_wq;
|
||||
struct workqueue_struct *mbox_pfvf_wq;
|
||||
|
||||
u8 total_vfs;
|
||||
u16 pcifunc; /* RVU PF_FUNC */
|
||||
u16 bpid[NIX_MAX_BPID_CHAN];
|
||||
struct otx2_vf_config *vf_configs;
|
||||
struct cgx_link_user_info linfo;
|
||||
|
||||
u64 reset_count;
|
||||
struct work_struct reset_task;
|
||||
struct workqueue_struct *flr_wq;
|
||||
struct flr_work *flr_wrk;
|
||||
struct refill_work *refill_wrk;
|
||||
|
||||
/* Ethtool stuff */
|
||||
@ -232,6 +251,11 @@ struct otx2_nic {
|
||||
int nix_blkaddr;
|
||||
};
|
||||
|
||||
static inline bool is_otx2_lbkvf(struct pci_dev *pdev)
|
||||
{
|
||||
return pdev->device == PCI_DEVID_OCTEONTX2_RVU_AFVF;
|
||||
}
|
||||
|
||||
static inline bool is_96xx_A0(struct pci_dev *pdev)
|
||||
{
|
||||
return (pdev->revision == 0x00) &&
|
||||
@ -351,21 +375,6 @@ static inline void otx2_sync_mbox_bbuf(struct otx2_mbox *mbox, int devid)
|
||||
hw_mbase + mbox->rx_start, msg_size + msgs_offset);
|
||||
}
|
||||
|
||||
static inline void otx2_mbox_lock_init(struct mbox *mbox)
|
||||
{
|
||||
mutex_init(&mbox->lock);
|
||||
}
|
||||
|
||||
static inline void otx2_mbox_lock(struct mbox *mbox)
|
||||
{
|
||||
mutex_lock(&mbox->lock);
|
||||
}
|
||||
|
||||
static inline void otx2_mbox_unlock(struct mbox *mbox)
|
||||
{
|
||||
mutex_unlock(&mbox->lock);
|
||||
}
|
||||
|
||||
/* With the absence of API for 128-bit IO memory access for arm64,
|
||||
* implement required operations at place.
|
||||
*/
|
||||
@ -614,6 +623,7 @@ void otx2_update_lmac_stats(struct otx2_nic *pfvf);
|
||||
int otx2_update_rq_stats(struct otx2_nic *pfvf, int qidx);
|
||||
int otx2_update_sq_stats(struct otx2_nic *pfvf, int qidx);
|
||||
void otx2_set_ethtool_ops(struct net_device *netdev);
|
||||
void otx2vf_set_ethtool_ops(struct net_device *netdev);
|
||||
|
||||
int otx2_open(struct net_device *netdev);
|
||||
int otx2_stop(struct net_device *netdev);
|
||||
|
@ -17,6 +17,7 @@
|
||||
#include "otx2_common.h"
|
||||
|
||||
#define DRV_NAME "octeontx2-nicpf"
|
||||
#define DRV_VF_NAME "octeontx2-nicvf"
|
||||
|
||||
struct otx2_stat {
|
||||
char name[ETH_GSTRING_LEN];
|
||||
@ -63,16 +64,6 @@ static const unsigned int otx2_n_dev_stats = ARRAY_SIZE(otx2_dev_stats);
|
||||
static const unsigned int otx2_n_drv_stats = ARRAY_SIZE(otx2_drv_stats);
|
||||
static const unsigned int otx2_n_queue_stats = ARRAY_SIZE(otx2_queue_stats);
|
||||
|
||||
static void otx2_dev_open(struct net_device *netdev)
|
||||
{
|
||||
otx2_open(netdev);
|
||||
}
|
||||
|
||||
static void otx2_dev_stop(struct net_device *netdev)
|
||||
{
|
||||
otx2_stop(netdev);
|
||||
}
|
||||
|
||||
static void otx2_get_drvinfo(struct net_device *netdev,
|
||||
struct ethtool_drvinfo *info)
|
||||
{
|
||||
@ -232,7 +223,7 @@ static int otx2_set_channels(struct net_device *dev,
|
||||
return -EINVAL;
|
||||
|
||||
if (if_up)
|
||||
otx2_dev_stop(dev);
|
||||
dev->netdev_ops->ndo_stop(dev);
|
||||
|
||||
err = otx2_set_real_num_queues(dev, channel->tx_count,
|
||||
channel->rx_count);
|
||||
@ -245,7 +236,7 @@ static int otx2_set_channels(struct net_device *dev,
|
||||
|
||||
fail:
|
||||
if (if_up)
|
||||
otx2_dev_open(dev);
|
||||
dev->netdev_ops->ndo_open(dev);
|
||||
|
||||
netdev_info(dev, "Setting num Tx rings to %d, Rx rings to %d success\n",
|
||||
pfvf->hw.tx_queues, pfvf->hw.rx_queues);
|
||||
@ -259,6 +250,9 @@ static void otx2_get_pauseparam(struct net_device *netdev,
|
||||
struct otx2_nic *pfvf = netdev_priv(netdev);
|
||||
struct cgx_pause_frm_cfg *req, *rsp;
|
||||
|
||||
if (is_otx2_lbkvf(pfvf->pdev))
|
||||
return;
|
||||
|
||||
req = otx2_mbox_alloc_msg_cgx_cfg_pause_frm(&pfvf->mbox);
|
||||
if (!req)
|
||||
return;
|
||||
@ -279,6 +273,9 @@ static int otx2_set_pauseparam(struct net_device *netdev,
|
||||
if (pause->autoneg)
|
||||
return -EOPNOTSUPP;
|
||||
|
||||
if (is_otx2_lbkvf(pfvf->pdev))
|
||||
return -EOPNOTSUPP;
|
||||
|
||||
if (pause->rx_pause)
|
||||
pfvf->flags |= OTX2_FLAG_RX_PAUSE_ENABLED;
|
||||
else
|
||||
@ -336,14 +333,15 @@ static int otx2_set_ringparam(struct net_device *netdev,
|
||||
return 0;
|
||||
|
||||
if (if_up)
|
||||
otx2_dev_stop(netdev);
|
||||
netdev->netdev_ops->ndo_stop(netdev);
|
||||
|
||||
/* Assigned to the nearest possible exponent. */
|
||||
qs->sqe_cnt = tx_count;
|
||||
qs->rqe_cnt = rx_count;
|
||||
|
||||
if (if_up)
|
||||
otx2_dev_open(netdev);
|
||||
netdev->netdev_ops->ndo_open(netdev);
|
||||
|
||||
return 0;
|
||||
}
|
||||
|
||||
@ -659,6 +657,9 @@ static u32 otx2_get_link(struct net_device *netdev)
|
||||
{
|
||||
struct otx2_nic *pfvf = netdev_priv(netdev);
|
||||
|
||||
/* LBK link is internal and always UP */
|
||||
if (is_otx2_lbkvf(pfvf->pdev))
|
||||
return 1;
|
||||
return pfvf->linfo.link_up;
|
||||
}
|
||||
|
||||
@ -692,3 +693,102 @@ void otx2_set_ethtool_ops(struct net_device *netdev)
|
||||
{
|
||||
netdev->ethtool_ops = &otx2_ethtool_ops;
|
||||
}
|
||||
|
||||
/* VF's ethtool APIs */
|
||||
static void otx2vf_get_drvinfo(struct net_device *netdev,
|
||||
struct ethtool_drvinfo *info)
|
||||
{
|
||||
struct otx2_nic *vf = netdev_priv(netdev);
|
||||
|
||||
strlcpy(info->driver, DRV_VF_NAME, sizeof(info->driver));
|
||||
strlcpy(info->bus_info, pci_name(vf->pdev), sizeof(info->bus_info));
|
||||
}
|
||||
|
||||
static void otx2vf_get_strings(struct net_device *netdev, u32 sset, u8 *data)
|
||||
{
|
||||
struct otx2_nic *vf = netdev_priv(netdev);
|
||||
int stats;
|
||||
|
||||
if (sset != ETH_SS_STATS)
|
||||
return;
|
||||
|
||||
for (stats = 0; stats < otx2_n_dev_stats; stats++) {
|
||||
memcpy(data, otx2_dev_stats[stats].name, ETH_GSTRING_LEN);
|
||||
data += ETH_GSTRING_LEN;
|
||||
}
|
||||
|
||||
for (stats = 0; stats < otx2_n_drv_stats; stats++) {
|
||||
memcpy(data, otx2_drv_stats[stats].name, ETH_GSTRING_LEN);
|
||||
data += ETH_GSTRING_LEN;
|
||||
}
|
||||
|
||||
otx2_get_qset_strings(vf, &data, 0);
|
||||
|
||||
strcpy(data, "reset_count");
|
||||
data += ETH_GSTRING_LEN;
|
||||
}
|
||||
|
||||
static void otx2vf_get_ethtool_stats(struct net_device *netdev,
|
||||
struct ethtool_stats *stats, u64 *data)
|
||||
{
|
||||
struct otx2_nic *vf = netdev_priv(netdev);
|
||||
int stat;
|
||||
|
||||
otx2_get_dev_stats(vf);
|
||||
for (stat = 0; stat < otx2_n_dev_stats; stat++)
|
||||
*(data++) = ((u64 *)&vf->hw.dev_stats)
|
||||
[otx2_dev_stats[stat].index];
|
||||
|
||||
for (stat = 0; stat < otx2_n_drv_stats; stat++)
|
||||
*(data++) = atomic_read(&((atomic_t *)&vf->hw.drv_stats)
|
||||
[otx2_drv_stats[stat].index]);
|
||||
|
||||
otx2_get_qset_stats(vf, stats, &data);
|
||||
*(data++) = vf->reset_count;
|
||||
}
|
||||
|
||||
static int otx2vf_get_sset_count(struct net_device *netdev, int sset)
|
||||
{
|
||||
struct otx2_nic *vf = netdev_priv(netdev);
|
||||
int qstats_count;
|
||||
|
||||
if (sset != ETH_SS_STATS)
|
||||
return -EINVAL;
|
||||
|
||||
qstats_count = otx2_n_queue_stats *
|
||||
(vf->hw.rx_queues + vf->hw.tx_queues);
|
||||
|
||||
return otx2_n_dev_stats + otx2_n_drv_stats + qstats_count + 1;
|
||||
}
|
||||
|
||||
static const struct ethtool_ops otx2vf_ethtool_ops = {
|
||||
.supported_coalesce_params = ETHTOOL_COALESCE_USECS |
|
||||
ETHTOOL_COALESCE_MAX_FRAMES,
|
||||
.get_link = otx2_get_link,
|
||||
.get_drvinfo = otx2vf_get_drvinfo,
|
||||
.get_strings = otx2vf_get_strings,
|
||||
.get_ethtool_stats = otx2vf_get_ethtool_stats,
|
||||
.get_sset_count = otx2vf_get_sset_count,
|
||||
.set_channels = otx2_set_channels,
|
||||
.get_channels = otx2_get_channels,
|
||||
.get_rxnfc = otx2_get_rxnfc,
|
||||
.set_rxnfc = otx2_set_rxnfc,
|
||||
.get_rxfh_key_size = otx2_get_rxfh_key_size,
|
||||
.get_rxfh_indir_size = otx2_get_rxfh_indir_size,
|
||||
.get_rxfh = otx2_get_rxfh,
|
||||
.set_rxfh = otx2_set_rxfh,
|
||||
.get_ringparam = otx2_get_ringparam,
|
||||
.set_ringparam = otx2_set_ringparam,
|
||||
.get_coalesce = otx2_get_coalesce,
|
||||
.set_coalesce = otx2_set_coalesce,
|
||||
.get_msglevel = otx2_get_msglevel,
|
||||
.set_msglevel = otx2_set_msglevel,
|
||||
.get_pauseparam = otx2_get_pauseparam,
|
||||
.set_pauseparam = otx2_set_pauseparam,
|
||||
};
|
||||
|
||||
void otx2vf_set_ethtool_ops(struct net_device *netdev)
|
||||
{
|
||||
netdev->ethtool_ops = &otx2vf_ethtool_ops;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2vf_set_ethtool_ops);
|
||||
|
File diff suppressed because it is too large
Load Diff
@ -45,6 +45,19 @@
|
||||
#define RVU_PF_MSIX_VECX_CTL(a) (0x008 | (a) << 4)
|
||||
#define RVU_PF_MSIX_PBAX(a) (0xF0000 | (a) << 3)
|
||||
|
||||
/* RVU VF registers */
|
||||
#define RVU_VF_VFPF_MBOX0 (0x00000)
|
||||
#define RVU_VF_VFPF_MBOX1 (0x00008)
|
||||
#define RVU_VF_VFPF_MBOXX(a) (0x00 | (a) << 3)
|
||||
#define RVU_VF_INT (0x20)
|
||||
#define RVU_VF_INT_W1S (0x28)
|
||||
#define RVU_VF_INT_ENA_W1S (0x30)
|
||||
#define RVU_VF_INT_ENA_W1C (0x38)
|
||||
#define RVU_VF_BLOCK_ADDRX_DISC(a) (0x200 | (a) << 3)
|
||||
#define RVU_VF_MSIX_VECX_ADDR(a) (0x000 | (a) << 4)
|
||||
#define RVU_VF_MSIX_VECX_CTL(a) (0x008 | (a) << 4)
|
||||
#define RVU_VF_MSIX_PBAX(a) (0xF0000 | (a) << 3)
|
||||
|
||||
#define RVU_FUNC_BLKADDR_SHIFT 20
|
||||
#define RVU_FUNC_BLKADDR_MASK 0x1FULL
|
||||
|
||||
|
@ -138,6 +138,25 @@ static void otx2_set_rxhash(struct otx2_nic *pfvf,
|
||||
skb_set_hash(skb, hash, hash_type);
|
||||
}
|
||||
|
||||
static void otx2_free_rcv_seg(struct otx2_nic *pfvf, struct nix_cqe_rx_s *cqe,
|
||||
int qidx)
|
||||
{
|
||||
struct nix_rx_sg_s *sg = &cqe->sg;
|
||||
void *end, *start;
|
||||
u64 *seg_addr;
|
||||
int seg;
|
||||
|
||||
start = (void *)sg;
|
||||
end = start + ((cqe->parse.desc_sizem1 + 1) * 16);
|
||||
while (start < end) {
|
||||
sg = (struct nix_rx_sg_s *)start;
|
||||
seg_addr = &sg->seg_addr;
|
||||
for (seg = 0; seg < sg->segs; seg++, seg_addr++)
|
||||
otx2_aura_freeptr(pfvf, qidx, *seg_addr & ~0x07ULL);
|
||||
start += sizeof(*sg);
|
||||
}
|
||||
}
|
||||
|
||||
static bool otx2_check_rcv_errors(struct otx2_nic *pfvf,
|
||||
struct nix_cqe_rx_s *cqe, int qidx)
|
||||
{
|
||||
@ -189,16 +208,17 @@ static bool otx2_check_rcv_errors(struct otx2_nic *pfvf,
|
||||
/* For now ignore all the NPC parser errors and
|
||||
* pass the packets to stack.
|
||||
*/
|
||||
return false;
|
||||
if (cqe->sg.segs == 1)
|
||||
return false;
|
||||
}
|
||||
|
||||
/* If RXALL is enabled pass on packets to stack. */
|
||||
if (cqe->sg.segs && (pfvf->netdev->features & NETIF_F_RXALL))
|
||||
if (cqe->sg.segs == 1 && (pfvf->netdev->features & NETIF_F_RXALL))
|
||||
return false;
|
||||
|
||||
/* Free buffer back to pool */
|
||||
if (cqe->sg.segs)
|
||||
otx2_aura_freeptr(pfvf, qidx, cqe->sg.seg_addr & ~0x07ULL);
|
||||
otx2_free_rcv_seg(pfvf, cqe, qidx);
|
||||
return true;
|
||||
}
|
||||
|
||||
@ -210,7 +230,7 @@ static void otx2_rcv_pkt_handler(struct otx2_nic *pfvf,
|
||||
struct nix_rx_parse_s *parse = &cqe->parse;
|
||||
struct sk_buff *skb = NULL;
|
||||
|
||||
if (unlikely(parse->errlev || parse->errcode)) {
|
||||
if (unlikely(parse->errlev || parse->errcode || cqe->sg.segs > 1)) {
|
||||
if (otx2_check_rcv_errors(pfvf, cqe, cq->cq_idx))
|
||||
return;
|
||||
}
|
||||
@ -778,6 +798,7 @@ bool otx2_sq_append_skb(struct net_device *netdev, struct otx2_snd_queue *sq,
|
||||
|
||||
return true;
|
||||
}
|
||||
EXPORT_SYMBOL(otx2_sq_append_skb);
|
||||
|
||||
void otx2_cleanup_rx_cqes(struct otx2_nic *pfvf, struct otx2_cq_queue *cq)
|
||||
{
|
||||
@ -788,11 +809,15 @@ void otx2_cleanup_rx_cqes(struct otx2_nic *pfvf, struct otx2_cq_queue *cq)
|
||||
while ((cqe = (struct nix_cqe_rx_s *)otx2_get_next_cqe(cq))) {
|
||||
if (!cqe->sg.subdc)
|
||||
continue;
|
||||
processed_cqe++;
|
||||
if (cqe->sg.segs > 1) {
|
||||
otx2_free_rcv_seg(pfvf, cqe, cq->cq_idx);
|
||||
continue;
|
||||
}
|
||||
iova = cqe->sg.seg_addr - OTX2_HEAD_ROOM;
|
||||
pa = otx2_iova_to_phys(pfvf->iommu_domain, iova);
|
||||
otx2_dma_unmap_page(pfvf, iova, pfvf->rbsize, DMA_FROM_DEVICE);
|
||||
put_page(virt_to_page(phys_to_virt(pa)));
|
||||
processed_cqe++;
|
||||
}
|
||||
|
||||
/* Free CQEs to HW */
|
||||
@ -831,18 +856,18 @@ int otx2_rxtx_enable(struct otx2_nic *pfvf, bool enable)
|
||||
struct msg_req *msg;
|
||||
int err;
|
||||
|
||||
otx2_mbox_lock(&pfvf->mbox);
|
||||
mutex_lock(&pfvf->mbox.lock);
|
||||
if (enable)
|
||||
msg = otx2_mbox_alloc_msg_nix_lf_start_rx(&pfvf->mbox);
|
||||
else
|
||||
msg = otx2_mbox_alloc_msg_nix_lf_stop_rx(&pfvf->mbox);
|
||||
|
||||
if (!msg) {
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
err = otx2_sync_mbox_msg(&pfvf->mbox);
|
||||
otx2_mbox_unlock(&pfvf->mbox);
|
||||
mutex_unlock(&pfvf->mbox.lock);
|
||||
return err;
|
||||
}
|
||||
|
648
drivers/net/ethernet/marvell/octeontx2/nic/otx2_vf.c
Normal file
648
drivers/net/ethernet/marvell/octeontx2/nic/otx2_vf.c
Normal file
@ -0,0 +1,648 @@
|
||||
// SPDX-License-Identifier: GPL-2.0
|
||||
/* Marvell OcteonTx2 RVU Virtual Function ethernet driver */
|
||||
|
||||
#include <linux/etherdevice.h>
|
||||
#include <linux/module.h>
|
||||
#include <linux/pci.h>
|
||||
|
||||
#include "otx2_common.h"
|
||||
#include "otx2_reg.h"
|
||||
|
||||
#define DRV_NAME "octeontx2-nicvf"
|
||||
#define DRV_STRING "Marvell OcteonTX2 NIC Virtual Function Driver"
|
||||
|
||||
static const struct pci_device_id otx2_vf_id_table[] = {
|
||||
{ PCI_DEVICE(PCI_VENDOR_ID_CAVIUM, PCI_DEVID_OCTEONTX2_RVU_AFVF) },
|
||||
{ PCI_DEVICE(PCI_VENDOR_ID_CAVIUM, PCI_DEVID_OCTEONTX2_RVU_VF) },
|
||||
{ }
|
||||
};
|
||||
|
||||
MODULE_AUTHOR("Sunil Goutham <sgoutham@marvell.com>");
|
||||
MODULE_DESCRIPTION(DRV_STRING);
|
||||
MODULE_LICENSE("GPL v2");
|
||||
MODULE_DEVICE_TABLE(pci, otx2_vf_id_table);
|
||||
|
||||
/* RVU VF Interrupt Vector Enumeration */
|
||||
enum {
|
||||
RVU_VF_INT_VEC_MBOX = 0x0,
|
||||
};
|
||||
|
||||
static void otx2vf_process_vfaf_mbox_msg(struct otx2_nic *vf,
|
||||
struct mbox_msghdr *msg)
|
||||
{
|
||||
if (msg->id >= MBOX_MSG_MAX) {
|
||||
dev_err(vf->dev,
|
||||
"Mbox msg with unknown ID %d\n", msg->id);
|
||||
return;
|
||||
}
|
||||
|
||||
if (msg->sig != OTX2_MBOX_RSP_SIG) {
|
||||
dev_err(vf->dev,
|
||||
"Mbox msg with wrong signature %x, ID %d\n",
|
||||
msg->sig, msg->id);
|
||||
return;
|
||||
}
|
||||
|
||||
if (msg->rc == MBOX_MSG_INVALID) {
|
||||
dev_err(vf->dev,
|
||||
"PF/AF says the sent msg(s) %d were invalid\n",
|
||||
msg->id);
|
||||
return;
|
||||
}
|
||||
|
||||
switch (msg->id) {
|
||||
case MBOX_MSG_READY:
|
||||
vf->pcifunc = msg->pcifunc;
|
||||
break;
|
||||
case MBOX_MSG_MSIX_OFFSET:
|
||||
mbox_handler_msix_offset(vf, (struct msix_offset_rsp *)msg);
|
||||
break;
|
||||
case MBOX_MSG_NPA_LF_ALLOC:
|
||||
mbox_handler_npa_lf_alloc(vf, (struct npa_lf_alloc_rsp *)msg);
|
||||
break;
|
||||
case MBOX_MSG_NIX_LF_ALLOC:
|
||||
mbox_handler_nix_lf_alloc(vf, (struct nix_lf_alloc_rsp *)msg);
|
||||
break;
|
||||
case MBOX_MSG_NIX_TXSCH_ALLOC:
|
||||
mbox_handler_nix_txsch_alloc(vf,
|
||||
(struct nix_txsch_alloc_rsp *)msg);
|
||||
break;
|
||||
case MBOX_MSG_NIX_BP_ENABLE:
|
||||
mbox_handler_nix_bp_enable(vf, (struct nix_bp_cfg_rsp *)msg);
|
||||
break;
|
||||
default:
|
||||
if (msg->rc)
|
||||
dev_err(vf->dev,
|
||||
"Mbox msg response has err %d, ID %d\n",
|
||||
msg->rc, msg->id);
|
||||
}
|
||||
}
|
||||
|
||||
static void otx2vf_vfaf_mbox_handler(struct work_struct *work)
|
||||
{
|
||||
struct otx2_mbox_dev *mdev;
|
||||
struct mbox_hdr *rsp_hdr;
|
||||
struct mbox_msghdr *msg;
|
||||
struct otx2_mbox *mbox;
|
||||
struct mbox *af_mbox;
|
||||
int offset, id;
|
||||
|
||||
af_mbox = container_of(work, struct mbox, mbox_wrk);
|
||||
mbox = &af_mbox->mbox;
|
||||
mdev = &mbox->dev[0];
|
||||
rsp_hdr = (struct mbox_hdr *)(mdev->mbase + mbox->rx_start);
|
||||
if (af_mbox->num_msgs == 0)
|
||||
return;
|
||||
offset = mbox->rx_start + ALIGN(sizeof(*rsp_hdr), MBOX_MSG_ALIGN);
|
||||
|
||||
for (id = 0; id < af_mbox->num_msgs; id++) {
|
||||
msg = (struct mbox_msghdr *)(mdev->mbase + offset);
|
||||
otx2vf_process_vfaf_mbox_msg(af_mbox->pfvf, msg);
|
||||
offset = mbox->rx_start + msg->next_msgoff;
|
||||
mdev->msgs_acked++;
|
||||
}
|
||||
|
||||
otx2_mbox_reset(mbox, 0);
|
||||
}
|
||||
|
||||
static int otx2vf_process_mbox_msg_up(struct otx2_nic *vf,
|
||||
struct mbox_msghdr *req)
|
||||
{
|
||||
struct msg_rsp *rsp;
|
||||
int err;
|
||||
|
||||
/* Check if valid, if not reply with a invalid msg */
|
||||
if (req->sig != OTX2_MBOX_REQ_SIG) {
|
||||
otx2_reply_invalid_msg(&vf->mbox.mbox_up, 0, 0, req->id);
|
||||
return -ENODEV;
|
||||
}
|
||||
|
||||
switch (req->id) {
|
||||
case MBOX_MSG_CGX_LINK_EVENT:
|
||||
rsp = (struct msg_rsp *)otx2_mbox_alloc_msg(
|
||||
&vf->mbox.mbox_up, 0,
|
||||
sizeof(struct msg_rsp));
|
||||
if (!rsp)
|
||||
return -ENOMEM;
|
||||
|
||||
rsp->hdr.id = MBOX_MSG_CGX_LINK_EVENT;
|
||||
rsp->hdr.sig = OTX2_MBOX_RSP_SIG;
|
||||
rsp->hdr.pcifunc = 0;
|
||||
rsp->hdr.rc = 0;
|
||||
err = otx2_mbox_up_handler_cgx_link_event(
|
||||
vf, (struct cgx_link_info_msg *)req, rsp);
|
||||
return err;
|
||||
default:
|
||||
otx2_reply_invalid_msg(&vf->mbox.mbox_up, 0, 0, req->id);
|
||||
return -ENODEV;
|
||||
}
|
||||
return 0;
|
||||
}
|
||||
|
||||
static void otx2vf_vfaf_mbox_up_handler(struct work_struct *work)
|
||||
{
|
||||
struct otx2_mbox_dev *mdev;
|
||||
struct mbox_hdr *rsp_hdr;
|
||||
struct mbox_msghdr *msg;
|
||||
struct otx2_mbox *mbox;
|
||||
struct mbox *vf_mbox;
|
||||
struct otx2_nic *vf;
|
||||
int offset, id;
|
||||
|
||||
vf_mbox = container_of(work, struct mbox, mbox_up_wrk);
|
||||
vf = vf_mbox->pfvf;
|
||||
mbox = &vf_mbox->mbox_up;
|
||||
mdev = &mbox->dev[0];
|
||||
|
||||
rsp_hdr = (struct mbox_hdr *)(mdev->mbase + mbox->rx_start);
|
||||
if (vf_mbox->up_num_msgs == 0)
|
||||
return;
|
||||
|
||||
offset = mbox->rx_start + ALIGN(sizeof(*rsp_hdr), MBOX_MSG_ALIGN);
|
||||
|
||||
for (id = 0; id < vf_mbox->up_num_msgs; id++) {
|
||||
msg = (struct mbox_msghdr *)(mdev->mbase + offset);
|
||||
otx2vf_process_mbox_msg_up(vf, msg);
|
||||
offset = mbox->rx_start + msg->next_msgoff;
|
||||
}
|
||||
|
||||
otx2_mbox_msg_send(mbox, 0);
|
||||
}
|
||||
|
||||
static irqreturn_t otx2vf_vfaf_mbox_intr_handler(int irq, void *vf_irq)
|
||||
{
|
||||
struct otx2_nic *vf = (struct otx2_nic *)vf_irq;
|
||||
struct otx2_mbox_dev *mdev;
|
||||
struct otx2_mbox *mbox;
|
||||
struct mbox_hdr *hdr;
|
||||
|
||||
/* Clear the IRQ */
|
||||
otx2_write64(vf, RVU_VF_INT, BIT_ULL(0));
|
||||
|
||||
/* Read latest mbox data */
|
||||
smp_rmb();
|
||||
|
||||
/* Check for PF => VF response messages */
|
||||
mbox = &vf->mbox.mbox;
|
||||
mdev = &mbox->dev[0];
|
||||
otx2_sync_mbox_bbuf(mbox, 0);
|
||||
|
||||
hdr = (struct mbox_hdr *)(mdev->mbase + mbox->rx_start);
|
||||
if (hdr->num_msgs) {
|
||||
vf->mbox.num_msgs = hdr->num_msgs;
|
||||
hdr->num_msgs = 0;
|
||||
memset(mbox->hwbase + mbox->rx_start, 0,
|
||||
ALIGN(sizeof(struct mbox_hdr), sizeof(u64)));
|
||||
queue_work(vf->mbox_wq, &vf->mbox.mbox_wrk);
|
||||
}
|
||||
/* Check for PF => VF notification messages */
|
||||
mbox = &vf->mbox.mbox_up;
|
||||
mdev = &mbox->dev[0];
|
||||
otx2_sync_mbox_bbuf(mbox, 0);
|
||||
|
||||
hdr = (struct mbox_hdr *)(mdev->mbase + mbox->rx_start);
|
||||
if (hdr->num_msgs) {
|
||||
vf->mbox.up_num_msgs = hdr->num_msgs;
|
||||
hdr->num_msgs = 0;
|
||||
memset(mbox->hwbase + mbox->rx_start, 0,
|
||||
ALIGN(sizeof(struct mbox_hdr), sizeof(u64)));
|
||||
queue_work(vf->mbox_wq, &vf->mbox.mbox_up_wrk);
|
||||
}
|
||||
|
||||
return IRQ_HANDLED;
|
||||
}
|
||||
|
||||
static void otx2vf_disable_mbox_intr(struct otx2_nic *vf)
|
||||
{
|
||||
int vector = pci_irq_vector(vf->pdev, RVU_VF_INT_VEC_MBOX);
|
||||
|
||||
/* Disable VF => PF mailbox IRQ */
|
||||
otx2_write64(vf, RVU_VF_INT_ENA_W1C, BIT_ULL(0));
|
||||
free_irq(vector, vf);
|
||||
}
|
||||
|
||||
static int otx2vf_register_mbox_intr(struct otx2_nic *vf, bool probe_pf)
|
||||
{
|
||||
struct otx2_hw *hw = &vf->hw;
|
||||
struct msg_req *req;
|
||||
char *irq_name;
|
||||
int err;
|
||||
|
||||
/* Register mailbox interrupt handler */
|
||||
irq_name = &hw->irq_name[RVU_VF_INT_VEC_MBOX * NAME_SIZE];
|
||||
snprintf(irq_name, NAME_SIZE, "RVUVFAF Mbox");
|
||||
err = request_irq(pci_irq_vector(vf->pdev, RVU_VF_INT_VEC_MBOX),
|
||||
otx2vf_vfaf_mbox_intr_handler, 0, irq_name, vf);
|
||||
if (err) {
|
||||
dev_err(vf->dev,
|
||||
"RVUPF: IRQ registration failed for VFAF mbox irq\n");
|
||||
return err;
|
||||
}
|
||||
|
||||
/* Enable mailbox interrupt for msgs coming from PF.
|
||||
* First clear to avoid spurious interrupts, if any.
|
||||
*/
|
||||
otx2_write64(vf, RVU_VF_INT, BIT_ULL(0));
|
||||
otx2_write64(vf, RVU_VF_INT_ENA_W1S, BIT_ULL(0));
|
||||
|
||||
if (!probe_pf)
|
||||
return 0;
|
||||
|
||||
/* Check mailbox communication with PF */
|
||||
req = otx2_mbox_alloc_msg_ready(&vf->mbox);
|
||||
if (!req) {
|
||||
otx2vf_disable_mbox_intr(vf);
|
||||
return -ENOMEM;
|
||||
}
|
||||
|
||||
err = otx2_sync_mbox_msg(&vf->mbox);
|
||||
if (err) {
|
||||
dev_warn(vf->dev,
|
||||
"AF not responding to mailbox, deferring probe\n");
|
||||
otx2vf_disable_mbox_intr(vf);
|
||||
return -EPROBE_DEFER;
|
||||
}
|
||||
return 0;
|
||||
}
|
||||
|
||||
static void otx2vf_vfaf_mbox_destroy(struct otx2_nic *vf)
|
||||
{
|
||||
struct mbox *mbox = &vf->mbox;
|
||||
|
||||
if (vf->mbox_wq) {
|
||||
flush_workqueue(vf->mbox_wq);
|
||||
destroy_workqueue(vf->mbox_wq);
|
||||
vf->mbox_wq = NULL;
|
||||
}
|
||||
|
||||
if (mbox->mbox.hwbase)
|
||||
iounmap((void __iomem *)mbox->mbox.hwbase);
|
||||
|
||||
otx2_mbox_destroy(&mbox->mbox);
|
||||
otx2_mbox_destroy(&mbox->mbox_up);
|
||||
}
|
||||
|
||||
static int otx2vf_vfaf_mbox_init(struct otx2_nic *vf)
|
||||
{
|
||||
struct mbox *mbox = &vf->mbox;
|
||||
void __iomem *hwbase;
|
||||
int err;
|
||||
|
||||
mbox->pfvf = vf;
|
||||
vf->mbox_wq = alloc_workqueue("otx2_vfaf_mailbox",
|
||||
WQ_UNBOUND | WQ_HIGHPRI |
|
||||
WQ_MEM_RECLAIM, 1);
|
||||
if (!vf->mbox_wq)
|
||||
return -ENOMEM;
|
||||
|
||||
/* Mailbox is a reserved memory (in RAM) region shared between
|
||||
* admin function (i.e PF0) and this VF, shouldn't be mapped as
|
||||
* device memory to allow unaligned accesses.
|
||||
*/
|
||||
hwbase = ioremap_wc(pci_resource_start(vf->pdev, PCI_MBOX_BAR_NUM),
|
||||
pci_resource_len(vf->pdev, PCI_MBOX_BAR_NUM));
|
||||
if (!hwbase) {
|
||||
dev_err(vf->dev, "Unable to map VFAF mailbox region\n");
|
||||
err = -ENOMEM;
|
||||
goto exit;
|
||||
}
|
||||
|
||||
err = otx2_mbox_init(&mbox->mbox, hwbase, vf->pdev, vf->reg_base,
|
||||
MBOX_DIR_VFPF, 1);
|
||||
if (err)
|
||||
goto exit;
|
||||
|
||||
err = otx2_mbox_init(&mbox->mbox_up, hwbase, vf->pdev, vf->reg_base,
|
||||
MBOX_DIR_VFPF_UP, 1);
|
||||
if (err)
|
||||
goto exit;
|
||||
|
||||
err = otx2_mbox_bbuf_init(mbox, vf->pdev);
|
||||
if (err)
|
||||
goto exit;
|
||||
|
||||
INIT_WORK(&mbox->mbox_wrk, otx2vf_vfaf_mbox_handler);
|
||||
INIT_WORK(&mbox->mbox_up_wrk, otx2vf_vfaf_mbox_up_handler);
|
||||
mutex_init(&mbox->lock);
|
||||
|
||||
return 0;
|
||||
exit:
|
||||
destroy_workqueue(vf->mbox_wq);
|
||||
return err;
|
||||
}
|
||||
|
||||
static int otx2vf_open(struct net_device *netdev)
|
||||
{
|
||||
struct otx2_nic *vf;
|
||||
int err;
|
||||
|
||||
err = otx2_open(netdev);
|
||||
if (err)
|
||||
return err;
|
||||
|
||||
/* LBKs do not receive link events so tell everyone we are up here */
|
||||
vf = netdev_priv(netdev);
|
||||
if (is_otx2_lbkvf(vf->pdev)) {
|
||||
pr_info("%s NIC Link is UP\n", netdev->name);
|
||||
netif_carrier_on(netdev);
|
||||
netif_tx_start_all_queues(netdev);
|
||||
}
|
||||
|
||||
return 0;
|
||||
}
|
||||
|
||||
static int otx2vf_stop(struct net_device *netdev)
|
||||
{
|
||||
return otx2_stop(netdev);
|
||||
}
|
||||
|
||||
static netdev_tx_t otx2vf_xmit(struct sk_buff *skb, struct net_device *netdev)
|
||||
{
|
||||
struct otx2_nic *vf = netdev_priv(netdev);
|
||||
int qidx = skb_get_queue_mapping(skb);
|
||||
struct otx2_snd_queue *sq;
|
||||
struct netdev_queue *txq;
|
||||
|
||||
sq = &vf->qset.sq[qidx];
|
||||
txq = netdev_get_tx_queue(netdev, qidx);
|
||||
|
||||
if (!otx2_sq_append_skb(netdev, sq, skb, qidx)) {
|
||||
netif_tx_stop_queue(txq);
|
||||
|
||||
/* Check again, incase SQBs got freed up */
|
||||
smp_mb();
|
||||
if (((sq->num_sqbs - *sq->aura_fc_addr) * sq->sqe_per_sqb)
|
||||
> sq->sqe_thresh)
|
||||
netif_tx_wake_queue(txq);
|
||||
|
||||
return NETDEV_TX_BUSY;
|
||||
}
|
||||
|
||||
return NETDEV_TX_OK;
|
||||
}
|
||||
|
||||
static int otx2vf_change_mtu(struct net_device *netdev, int new_mtu)
|
||||
{
|
||||
bool if_up = netif_running(netdev);
|
||||
int err = 0;
|
||||
|
||||
if (if_up)
|
||||
otx2vf_stop(netdev);
|
||||
|
||||
netdev_info(netdev, "Changing MTU from %d to %d\n",
|
||||
netdev->mtu, new_mtu);
|
||||
netdev->mtu = new_mtu;
|
||||
|
||||
if (if_up)
|
||||
err = otx2vf_open(netdev);
|
||||
|
||||
return err;
|
||||
}
|
||||
|
||||
static void otx2vf_reset_task(struct work_struct *work)
|
||||
{
|
||||
struct otx2_nic *vf = container_of(work, struct otx2_nic, reset_task);
|
||||
|
||||
rtnl_lock();
|
||||
|
||||
if (netif_running(vf->netdev)) {
|
||||
otx2vf_stop(vf->netdev);
|
||||
vf->reset_count++;
|
||||
otx2vf_open(vf->netdev);
|
||||
}
|
||||
|
||||
rtnl_unlock();
|
||||
}
|
||||
|
||||
static const struct net_device_ops otx2vf_netdev_ops = {
|
||||
.ndo_open = otx2vf_open,
|
||||
.ndo_stop = otx2vf_stop,
|
||||
.ndo_start_xmit = otx2vf_xmit,
|
||||
.ndo_set_mac_address = otx2_set_mac_address,
|
||||
.ndo_change_mtu = otx2vf_change_mtu,
|
||||
.ndo_get_stats64 = otx2_get_stats64,
|
||||
.ndo_tx_timeout = otx2_tx_timeout,
|
||||
};
|
||||
|
||||
static int otx2vf_realloc_msix_vectors(struct otx2_nic *vf)
|
||||
{
|
||||
struct otx2_hw *hw = &vf->hw;
|
||||
int num_vec, err;
|
||||
|
||||
num_vec = hw->nix_msixoff;
|
||||
num_vec += NIX_LF_CINT_VEC_START + hw->max_queues;
|
||||
|
||||
otx2vf_disable_mbox_intr(vf);
|
||||
pci_free_irq_vectors(hw->pdev);
|
||||
err = pci_alloc_irq_vectors(hw->pdev, num_vec, num_vec, PCI_IRQ_MSIX);
|
||||
if (err < 0) {
|
||||
dev_err(vf->dev, "%s: Failed to realloc %d IRQ vectors\n",
|
||||
__func__, num_vec);
|
||||
return err;
|
||||
}
|
||||
|
||||
return otx2vf_register_mbox_intr(vf, false);
|
||||
}
|
||||
|
||||
static int otx2vf_probe(struct pci_dev *pdev, const struct pci_device_id *id)
|
||||
{
|
||||
int num_vec = pci_msix_vec_count(pdev);
|
||||
struct device *dev = &pdev->dev;
|
||||
struct net_device *netdev;
|
||||
struct otx2_nic *vf;
|
||||
struct otx2_hw *hw;
|
||||
int err, qcount;
|
||||
|
||||
err = pcim_enable_device(pdev);
|
||||
if (err) {
|
||||
dev_err(dev, "Failed to enable PCI device\n");
|
||||
return err;
|
||||
}
|
||||
|
||||
err = pci_request_regions(pdev, DRV_NAME);
|
||||
if (err) {
|
||||
dev_err(dev, "PCI request regions failed 0x%x\n", err);
|
||||
return err;
|
||||
}
|
||||
|
||||
err = dma_set_mask_and_coherent(dev, DMA_BIT_MASK(48));
|
||||
if (err) {
|
||||
dev_err(dev, "DMA mask config failed, abort\n");
|
||||
goto err_release_regions;
|
||||
}
|
||||
|
||||
pci_set_master(pdev);
|
||||
|
||||
qcount = num_online_cpus();
|
||||
netdev = alloc_etherdev_mqs(sizeof(*vf), qcount, qcount);
|
||||
if (!netdev) {
|
||||
err = -ENOMEM;
|
||||
goto err_release_regions;
|
||||
}
|
||||
|
||||
pci_set_drvdata(pdev, netdev);
|
||||
SET_NETDEV_DEV(netdev, &pdev->dev);
|
||||
vf = netdev_priv(netdev);
|
||||
vf->netdev = netdev;
|
||||
vf->pdev = pdev;
|
||||
vf->dev = dev;
|
||||
vf->iommu_domain = iommu_get_domain_for_dev(dev);
|
||||
|
||||
vf->flags |= OTX2_FLAG_INTF_DOWN;
|
||||
hw = &vf->hw;
|
||||
hw->pdev = vf->pdev;
|
||||
hw->rx_queues = qcount;
|
||||
hw->tx_queues = qcount;
|
||||
hw->max_queues = qcount;
|
||||
|
||||
hw->irq_name = devm_kmalloc_array(&hw->pdev->dev, num_vec, NAME_SIZE,
|
||||
GFP_KERNEL);
|
||||
if (!hw->irq_name)
|
||||
goto err_free_netdev;
|
||||
|
||||
hw->affinity_mask = devm_kcalloc(&hw->pdev->dev, num_vec,
|
||||
sizeof(cpumask_var_t), GFP_KERNEL);
|
||||
if (!hw->affinity_mask)
|
||||
goto err_free_netdev;
|
||||
|
||||
err = pci_alloc_irq_vectors(hw->pdev, num_vec, num_vec, PCI_IRQ_MSIX);
|
||||
if (err < 0) {
|
||||
dev_err(dev, "%s: Failed to alloc %d IRQ vectors\n",
|
||||
__func__, num_vec);
|
||||
goto err_free_netdev;
|
||||
}
|
||||
|
||||
vf->reg_base = pcim_iomap(pdev, PCI_CFG_REG_BAR_NUM, 0);
|
||||
if (!vf->reg_base) {
|
||||
dev_err(dev, "Unable to map physical function CSRs, aborting\n");
|
||||
err = -ENOMEM;
|
||||
goto err_free_irq_vectors;
|
||||
}
|
||||
|
||||
/* Init VF <=> PF mailbox stuff */
|
||||
err = otx2vf_vfaf_mbox_init(vf);
|
||||
if (err)
|
||||
goto err_free_irq_vectors;
|
||||
|
||||
/* Register mailbox interrupt */
|
||||
err = otx2vf_register_mbox_intr(vf, true);
|
||||
if (err)
|
||||
goto err_mbox_destroy;
|
||||
|
||||
/* Request AF to attach NPA and LIX LFs to this AF */
|
||||
err = otx2_attach_npa_nix(vf);
|
||||
if (err)
|
||||
goto err_disable_mbox_intr;
|
||||
|
||||
err = otx2vf_realloc_msix_vectors(vf);
|
||||
if (err)
|
||||
goto err_mbox_destroy;
|
||||
|
||||
err = otx2_set_real_num_queues(netdev, qcount, qcount);
|
||||
if (err)
|
||||
goto err_detach_rsrc;
|
||||
|
||||
otx2_setup_dev_hw_settings(vf);
|
||||
|
||||
/* Assign default mac address */
|
||||
otx2_get_mac_from_af(netdev);
|
||||
|
||||
netdev->hw_features = NETIF_F_RXCSUM | NETIF_F_IP_CSUM |
|
||||
NETIF_F_IPV6_CSUM | NETIF_F_RXHASH |
|
||||
NETIF_F_SG | NETIF_F_TSO | NETIF_F_TSO6;
|
||||
netdev->features = netdev->hw_features;
|
||||
|
||||
netdev->gso_max_segs = OTX2_MAX_GSO_SEGS;
|
||||
netdev->watchdog_timeo = OTX2_TX_TIMEOUT;
|
||||
|
||||
netdev->netdev_ops = &otx2vf_netdev_ops;
|
||||
|
||||
/* MTU range: 68 - 9190 */
|
||||
netdev->min_mtu = OTX2_MIN_MTU;
|
||||
netdev->max_mtu = OTX2_MAX_MTU;
|
||||
|
||||
INIT_WORK(&vf->reset_task, otx2vf_reset_task);
|
||||
|
||||
/* To distinguish, for LBK VFs set netdev name explicitly */
|
||||
if (is_otx2_lbkvf(vf->pdev)) {
|
||||
int n;
|
||||
|
||||
n = (vf->pcifunc >> RVU_PFVF_FUNC_SHIFT) & RVU_PFVF_FUNC_MASK;
|
||||
/* Need to subtract 1 to get proper VF number */
|
||||
n -= 1;
|
||||
snprintf(netdev->name, sizeof(netdev->name), "lbk%d", n);
|
||||
}
|
||||
|
||||
err = register_netdev(netdev);
|
||||
if (err) {
|
||||
dev_err(dev, "Failed to register netdevice\n");
|
||||
goto err_detach_rsrc;
|
||||
}
|
||||
|
||||
otx2vf_set_ethtool_ops(netdev);
|
||||
|
||||
/* Enable pause frames by default */
|
||||
vf->flags |= OTX2_FLAG_RX_PAUSE_ENABLED;
|
||||
vf->flags |= OTX2_FLAG_TX_PAUSE_ENABLED;
|
||||
|
||||
return 0;
|
||||
|
||||
err_detach_rsrc:
|
||||
otx2_detach_resources(&vf->mbox);
|
||||
err_disable_mbox_intr:
|
||||
otx2vf_disable_mbox_intr(vf);
|
||||
err_mbox_destroy:
|
||||
otx2vf_vfaf_mbox_destroy(vf);
|
||||
err_free_irq_vectors:
|
||||
pci_free_irq_vectors(hw->pdev);
|
||||
err_free_netdev:
|
||||
pci_set_drvdata(pdev, NULL);
|
||||
free_netdev(netdev);
|
||||
err_release_regions:
|
||||
pci_release_regions(pdev);
|
||||
return err;
|
||||
}
|
||||
|
||||
static void otx2vf_remove(struct pci_dev *pdev)
|
||||
{
|
||||
struct net_device *netdev = pci_get_drvdata(pdev);
|
||||
struct otx2_nic *vf;
|
||||
|
||||
if (!netdev)
|
||||
return;
|
||||
|
||||
vf = netdev_priv(netdev);
|
||||
|
||||
otx2vf_disable_mbox_intr(vf);
|
||||
|
||||
otx2_detach_resources(&vf->mbox);
|
||||
otx2vf_vfaf_mbox_destroy(vf);
|
||||
pci_free_irq_vectors(vf->pdev);
|
||||
pci_set_drvdata(pdev, NULL);
|
||||
free_netdev(netdev);
|
||||
|
||||
pci_release_regions(pdev);
|
||||
}
|
||||
|
||||
static struct pci_driver otx2vf_driver = {
|
||||
.name = DRV_NAME,
|
||||
.id_table = otx2_vf_id_table,
|
||||
.probe = otx2vf_probe,
|
||||
.remove = otx2vf_remove,
|
||||
.shutdown = otx2vf_remove,
|
||||
};
|
||||
|
||||
static int __init otx2vf_init_module(void)
|
||||
{
|
||||
pr_info("%s: %s\n", DRV_NAME, DRV_STRING);
|
||||
|
||||
return pci_register_driver(&otx2vf_driver);
|
||||
}
|
||||
|
||||
static void __exit otx2vf_cleanup_module(void)
|
||||
{
|
||||
pci_unregister_driver(&otx2vf_driver);
|
||||
}
|
||||
|
||||
module_init(otx2vf_init_module);
|
||||
module_exit(otx2vf_cleanup_module);
|
Loading…
x
Reference in New Issue
Block a user