高科技网络抓取公司 Oxylabs 的客户管理之道华体

作者:admin发布时间:2022-05-16 17:27

  hth华体会官网APP下载实时爬虫是 Oxylabs 为企业提供的少数几个、也是最早一批大规模抓取解决方案之一,最近已改造为抓取工具 API(Scraper API),标志着战略性变革。

  我们采访了 Oxylabs 客户管理总监 Gabriele Montvile,她深入分享了自己的职业生涯,以及与网络抓取相关的重大趋势、解决方案和挑战。

  我们就开门见山吧。请讲一讲您是如何进入技术行业、网络抓取的,您觉得其中最有意思的地方是什么。

  加入 Oxylabs 之前,我已在技术领域工作了好几年,主要专注于通过现有 SaaS 或定制业务解决方案推动数字化转型。

  我的角色是围绕 B2B 客户、服务销售和战略客户管理来开展工作。换句话说,我负责创建成功的数字化转型项目,找出合适的企业价值驱动型解决方案,并与客户建立长期关系。

  后来,我跳槽到 Salesforce,在那里担任了几个以客户为中心的不同职位。然后,我去了 TeleSoftas(一家定制 IT 软件交付公司),担任关键客户经理。

  做了几年的个人贡献者之后,我想寻求新的挑战,让我能够在技术行业担任管理职务。于是我加入了 Oxylabs,目前我是客户管理部的总监。

  在网络抓取的工作中特别有意思的地方就是,您有机会接触到一些最大型的跨国公司,理解其数据收集需求和流程。这些常常进而影响他们最重要的业务决策。比如说,在线收集的替代数据常常决定了电子商务领域的动态定价策略。

  决定我们客户需求的最重要因素之一就是传统的“自建还是购买”决策。也就是说,一家公司是决定建造自己的网络抓取解决方案还是外包给第三方。

  那些强调人力资源效率、卓越运营和可扩展性的公司(通常是大型企业)往往倾向于外包网络抓取运营,因此会使用我们的抓取工具 API。这些解决方案可帮助解决与网络抓取相关的一些最常见挑战,例如缺乏内部专业人士、请求成功率较低、无法扩展或维护成本高昂。

  另一方面,一些企业更看重打造自己的技术专长,就选择在内部建设自己的网络抓取运营。这些客户通常会使用我们的 IaaS 解决方案,例如数据中心或住宅代理。虽然这种方法有高度定制和安全性等优势,但也带来一些挑战。

  例如,您得确保团队中具备合适的技能,管控相关基础设施成本并专门投入时间进行网络抓取工具维护。这可能比较困难,因为网络抓取工具需要持续适应不断发展的机器人防护机制。

  由于网络抓取是一个相当复杂的过程,我们的客户会面临多重挑战。不过,我确实相信,我们的抓取工具 API 能够解决其中大部分挑战。

  首先,代理采购成本很高,而且并非总是可预测的。虽然参与网络抓取的大部分企业都使用代理提供商,但计费方式常常是按流量,而不是按 IP 地址。

  这意味着,如果客户在网上抓取数据时遇到任何挑战(比如,由于目标网站布局变化或现有反机器人措施,抓取尝试失败),成本就可能大幅增加。这种情况相当常见,尤其是在公司没有网络抓取所需的深度技术专业人士的情况下。

  数据质量是另一个问题。我见过一个网络抓取工具的常规输出,实在令人不敢恭维。大量的开发和相关工作要求以恰当的方式提取数据,即使很小的错误也可能造成低质量的数据。因此,需要花很大精力来确保抓取的数据的质量。

  总结起来,所有这些问题大体上都可以使用我们的抓取工具 API 来解决。我们有着丰富的经验,能够降低抓取和代理采购成本,同时,我们的创新型解决方案有助于更轻松地维护数据质量。

  关于抓取工具 API(也就是过去的实时爬虫),您收到的反馈信息如何?您有什么成功案例可以分享吗?

  您提到了我们解决方案的两种名称,这很有意思。当我们决定重塑品牌的时候,我们就从合作伙伴和客户收集了深入的反馈信息。我们改为抓取工具 API (Scraper API)的举措赢得了好评,因为这样更容易理解解决方案的目的,也阐明了附加值。

  我可以讲两个相关的成功案例。第一个是一家商业智能公司,他们在抓取电子商务收集时,总是遇到频繁的拦截和数据丢失的问题。

  由于这些挑战,他们曾经专门投入大部分时间来修复 bug,而不是交付真正的商业价值。一旦他们采用了我们的某个抓取工具 API,他们就能够顺利提取数据,并转而专注于数据分析,这成为他们公司的关键价值驱动因素之一。

  另一个成功案例就是 trivago,这是一家旅行费用信息汇集公司。他们之前使用了由我们的住宅代理提供技术支持的内部解决方案。遗憾的是,数据收集过程高度复杂,因为这家旅行费用信息汇集公司需要来自 200 多个国家和地区的数据。过渡到我们的网络抓取工具 API 之后,他们解决了现有的网络抓取挑战,并改善了数据收集结果。

  其实大部分抓取工具 API (Scraper API)的功能是名副其实的。我认为,最容易概括的是电子商务抓取工具 API,它主要由电子商务公司、平台和网站使用。友商分析在动态定价和产品目录映射等用例中处于突出地位。

  SERP 抓取工具 API (SERP Scraper API)主要由营销和 SEO 机构使用。他们通常从已知搜索引擎抓取数据,以便深入了解关键字排名和相关趋势、广告效果、品牌监控以及其他许多领域。

  最后,我们的网络抓取工具 API (Web Scraper API)有着最广泛的使用范围,主要用于欺诈防护和旅行费用信息汇集。

  实时爬虫是 Oxylabs 为企业提供的少数几个、也是最早一批大规模抓取解决方案之一,最近已改造为抓取工具 API(Scraper API),标志着战略性变革。

  我们采访了 Oxylabs 客户管理总监 Gabriele Montvile,她深入分享了自己的职业生涯,以及与网络抓取相关的重大趋势、解决方案和挑战。

  我们就开门见山吧。请讲一讲您是如何进入技术行业、网络抓取的,您觉得其中最有意思的地方是什么。

  加入 Oxylabs 之前,我已在技术领域工作了好几年,主要专注于通过现有 SaaS 或定制业务解决方案推动数字化转型。

  我的角色是围绕 B2B 客户、服务销售和战略客户管理来开展工作。换句话说,我负责创建成功的数字化转型项目,找出合适的企业价值驱动型解决方案,并与客户建立长期关系。

  后来,我跳槽到 Salesforce,在那里担任了几个以客户为中心的不同职位。然后,我去了 TeleSoftas(一家定制 IT 软件交付公司),担任关键客户经理。

  做了几年的个人贡献者之后,我想寻求新的挑战,让我能够在技术行业担任管理职务。于是我加入了 Oxylabs,目前我是客户管理部的总监。

  在网络抓取的工作中特别有意思的地方就是,您有机会接触到一些最大型的跨国公司,理解其数据收集需求和流程。这些常常进而影响他们最重要的业务决策。比如说,在线收集的替代数据常常决定了电子商务领域的动态定价策略。

  决定我们客户需求的最重要因素之一就是传统的“自建还是购买”决策。也就是说,一家公司是决定建造自己的网络抓取解决方案还是外包给第三方。

  那些强调人力资源效率、卓越运营和可扩展性的公司(通常是大型企业)往往倾向于外包网络抓取运营,因此会使用我们的抓取工具 API。这些解决方案可帮助解决与网络抓取相关的一些最常见挑战,例如缺乏内部专业人士、请求成功率较低、无法扩展或维护成本高昂。

  另一方面,一些企业更看重打造自己的技术专长,就选择在内部建设自己的网络抓取运营。这些客户通常会使用我们的 IaaS 解决方案,例如数据中心或住宅代理。虽然这种方法有高度定制和安全性等优势,但也带来一些挑战。

  例如,您得确保团队中具备合适的技能,管控相关基础设施成本并专门投入时间进行网络抓取工具维护。这可能比较困难,因为网络抓取工具需要持续适应不断发展的机器人防护机制。

  由于网络抓取是一个相当复杂的过程,我们的客户会面临多重挑战。不过,我确实相信,我们的抓取工具 API 能够解决其中大部分挑战。

  首先,代理采购成本很高,而且并非总是可预测的。虽然参与网络抓取的大部分企业都使用代理提供商,但计费方式常常是按流量,而不是按 IP 地址。

  这意味着,如果客户在网上抓取数据时遇到任何挑战(比如,由于目标网站布局变化或现有反机器人措施,抓取尝试失败),成本就可能大幅增加。这种情况相当常见,尤其是在公司没有网络抓取所需的深度技术专业人士的情况下。

  数据质量是另一个问题。我见过一个网络抓取工具的常规输出,实在令人不敢恭维。大量的开发和相关工作要求以恰当的方式提取数据,即使很小的错误也可能造成低质量的数据。因此,需要花很大精力来确保抓取的数据的质量。

  总结起来,所有这些问题大体上都可以使用我们的抓取工具 API 来解决。我们有着丰富的经验,能够降低抓取和代理采购成本,同时,我们的创新型解决方案有助于更轻松地维护数据质量。

  关于抓取工具 API(也就是过去的实时爬虫),您收到的反馈信息如何?您有什么成功案例可以分享吗?

  您提到了我们解决方案的两种名称,这很有意思。当我们决定重塑品牌的时候,我们就从合作伙伴和客户收集了深入的反馈信息。我们改为抓取工具 API (Scraper API)的举措赢得了好评,因为这样更容易理解解决方案的目的,也阐明了附加值。

  我可以讲两个相关的成功案例。第一个是一家商业智能公司,他们在抓取电子商务收集时,总是遇到频繁的拦截和数据丢失的问题。

  由于这些挑战,他们曾经专门投入大部分时间来修复 bug,而不是交付真正的商业价值。一旦他们采用了我们的某个抓取工具 API,他们就能够顺利提取数据,并转而专注于数据分析,这成为他们公司的关键价值驱动因素之一。

  另一个成功案例就是 trivago,这是一家旅行费用信息汇集公司。他们之前使用了由我们的住宅代理提供技术支持的内部解决方案。遗憾的是,数据收集过程高度复杂,因为这家旅行费用信息汇集公司需要来自 200 多个国家和地区的数据。过渡到我们的网络抓取工具 API 之后,他们解决了现有的网络抓取挑战,并改善了数据收集结果。

  其实大部分抓取工具 API (Scraper API)的功能是名副其实的。我认为,最容易概括的是电子商务抓取工具 API,它主要由电子商务公司、平台和网站使用。友商分析在动态定价和产品目录映射等用例中处于突出地位。

  SERP 抓取工具 API (SERP Scraper API)主要由营销和 SEO 机构使用。他们通常从已知搜索引擎抓取数据,以便深入了解关键字排名和相关趋势、广告效果、品牌监控以及其他许多领域。

  最后,我们的网络抓取工具 API (Web Scraper API)有着最广泛的使用范围,主要用于欺诈防护和旅行费用信息汇集。